Top
crédito de imagen: Unsplash

Prohíben pedirle a ChatGPT que repita la misma palabra: esta es la razón

diciembre 6, 2023

Vía: El Tiempo
Categoría:

ChatGPT y la inteligencia artificial han revolucionado el internet en este año y es que muchas personas empezaron a utilizar esta herramienta como una ayuda permanente para solucionar sus dudas.

Sin embargo, ChatGPT no cuenta con una programación que resuelva cualquier inquietud y, luego de muchas modificaciones, los desarrolladores de OpenIA lograron limitar las respuestas, sobre todo las que pretenden hacer predicciones a futuro.

A pesar de que esto ya se conocía, actualmente realizaron otra actualización y con ella ya no se permite pedirle a la herramienta que repita una palabra eternamente. Ahora, se advierte de esta es una posible violación a sus políticas, un cambio que se ha apreciado tras una investigación que demostraba que dicha repetición acababa revelando datos personales reales procedentes del entrenamiento, indicó la agencia de información Europa Press.

Leer más sobre El Tiempo