ChatGPT y la inteligencia artificial han revolucionado el internet en este año y es que muchas personas empezaron a utilizar esta herramienta como una ayuda permanente para solucionar sus dudas.
Sin embargo, ChatGPT no cuenta con una programación que resuelva cualquier inquietud y, luego de muchas modificaciones, los desarrolladores de OpenIA lograron limitar las respuestas, sobre todo las que pretenden hacer predicciones a futuro.
A pesar de que esto ya se conocía, actualmente realizaron otra actualización y con ella ya no se permite pedirle a la herramienta que repita una palabra eternamente. Ahora, se advierte de esta es una posible violación a sus políticas, un cambio que se ha apreciado tras una investigación que demostraba que dicha repetición acababa revelando datos personales reales procedentes del entrenamiento, indicó la agencia de información Europa Press.