ChatGPT comienza a recordar información específica compartida por sus usuarios. Por ejemplo, la ciudad en la que vives, tu libro favorito o el hecho de que odias respuestas divididas en temas. El creador de chatbotOpenAI comenzó a probar la función esta semana con un pequeño grupo de personas, incluidos usuarios de la versión gratuita y de la versión paga (con el modelo GPT-4).
Desde julio, es posible “personalizar” ChatGPT, pidiéndole que recuerde ciertos detalles a través de la configuración (Nombre de usuario > Personalizar GPT). Sin embargo, la nueva función de memoria permite que el sistema guarde automáticamente la información compartida durante las conversaciones. Si lo prefieres, puedes evitar que el sistema retenga información en la configuración.
¿Por qué?
La memoria añade, automáticamente,contexto a las preguntas que se formulan. Si le pedimos a ChatGPT que recuerde que vivimos en Lisboa, el sistema incluirá esta información en las respuestas que dé. Por ejemplo, en las sugerencias de restaurantes abiertos los lunes.
GPT personalizados, que son chatbots creados con la versión paga de ChatGPT para funciones específicas como generar imágenes o recomendar libros, también tendrán acceso a la función. Con esto, BooksGPT, que es un chatbot Para encontrar libros, empiezas a recordar los géneros favoritos de alguien. Tutor Me, desarrollado por la plataforma educativa Khan Academy, memoriza el curso o las dificultades específicas de determinados usuarios.
Como tu «crear» ¿recuerdos?
Hay dos formas de «crear» recuerdos en ChatGPT. Normalmente, el sistema acumula información sobre el usuario a lo largo de las conversaciones, como la preferencia por las respuestas en “portugués portugués”. Los usuarios también pueden decirle a ChatGPT que recuerde cosas específicas (entre otras cosas, qué lenguaje de código Javascript se prefiere).
OpenAI señala, sin embargo, que no registrará automáticamente información confidencial a menos que el usuario lo solicite directamente. Este es el caso de los datos de salud.
El creador de ChatGPT no brinda detalles sobre cómo funciona el sistema y no respondió a las preguntas de PÚBLICO. Normalmente, los modelos de lenguaje grande (LLM), basados en ChatGPT, tienen dos tipos de memoria: la memoria adquirida durante la fase de entrenamiento inicial y otra memoria «contextual» que surge de las conversaciones que se mantienen con los usuarios.
La nueva función amplía la memoria contextual. “Lo que ha cambiado es lo que se incluye en el marco del rápido [a pergunta que o utilizador faz]. Ahora puedes pedirle a ChatGPT que incluya información específica en cada pregunta que envíes”, Patricia Thaine, cofundadora de Private.AI, una empresa que desarrolla programas de privacidad de datos, incluida una extensión para reemplazar automáticamente datos sensibles o información privada de las preguntas realizadas. a ChatGPT.
¿OpenAI utiliza la información para entrenar el sistema?
OpenAI señala que utiliza cualquier contenido compartido con ChatGPT, incluida la información almacenada en memorias, para mejorar sus modelos. A menos que el usuario especifique lo contrario.
Puede evitar que OpenAI utilice los datos de chat de los usuarios en la configuración (Nombre de usuario > Configuración > Control de datos). La opción está habilitada de forma predeterminada.
¿Es posible desactivar la función de memoria?
Sí, es posible «apagar» y eliminar datos específicos de la memoria ChatGPT yendo a configuración (Nombre de usuario > Configuración > Administrar memoria). En esta página puedes ver una lista de toda la información que ChatGPT tiene almacenada en la memoria. Como «pareja [do utilizador] es vegetariano”, “quiere incorporar snacks saludables a su dieta” o “me gustaría visitar México”.
¿Existe algún riesgo de privacidad?
“Yo diría que el riesgo para el usuario medio es bajo, pero todavía existe un riesgo para la privacidad al utilizar Internet. Si queremos socializar el uso de este tipo de herramientas, nos encontramos con los mismos problemas que las redes sociales”, reflexiona David Martins de Matos, investigador del Inesc – ID, instituto de investigación en el campo de las ciencias de la salud.
«Los problemas de privacidad surgen principalmente en casos de uso comercial, si se comparte la memoria y no se implementan los controles adecuados”, añade. Patricia Thaine.
En mayo de 2023, Samsung prohibió a sus empleados usar ChatGPT en dispositivos de trabajo debido a preocupaciones sobre compartir información sobre empresas privadas. Por ejemplo, sobre tecnología patentada. Sobre todo porque el sistema OpenAI aprende de las conversaciones de forma predeterminada.
«Explorador apasionado. Aficionado al alcohol. Fanático de Twitter. Webaholic galardonado. Aficionado a la comida. Geek de la cultura pop. Organizador».