TECNOLOGÍA

"Cuidado con ChatGPT": usuarios advirtieron que mostró información privada

Un fallo en ChatGPT que compartió conversaciones de otros usuarios provocó una inhabilitación en la función "historial", con el fin de cuidar la privacidad de los datos. La empresa aclaró que el error mostraba los títulos de los chats, pero no su contenido

BAE Negocios

La Inteligencia Artificial es el futuro, o eso parece. En el presente aún se encuentra en la etapa de "prueba y error" para identificar los problemas que puede presentar en su uso frecuente y así solucionarlos. Pero un error puede ser catastrófico si expone información sensible de los usuarios, tal como sucedió con la plataforma ChatGPT, cuya función "historial" está momentáneamente fuera de servicio

"El historial está temporalmente fuera de servicio. Estamos trabajando para restaurar esta función lo antes posible", es el cartel con el que se encuentran desde este martes por la mañana aquellas personas que desean acceder al apartado, pero el chat para consultas sigue funcionando con normalidad

OpenAI, empresa creadora del ChatGPT, dispuso la suspensión de esta opción luego de que un error expusiera breves descripciones de conversaciones de otros usuarios a diferentes personas. Es decir, que al ingresar en el historial, las conversaciones encontradas pertenecían a desconocidos

 

Un portavoz de OpenAI confirmó el incidente a la agencia Bloomberg y aclaró que el fallo "no compartía transcripciones completas de las conversaciones, sino sólo breves títulos descriptivos".

El hecho tomó notoriedad por la publicación que realizó una persona en Reddit de una foto en la que aparecían descripciones de varias conversaciones de ChatGPT que, según él, no eran suyas, mientras que otra persona publicó en Twitter una captura de pantalla con el mismo error.

"Si usas #ChatGPT ¡tené cuidado! ¡Existe el riesgo de que tus chats se compartan con otros usuarios! Hoy me apareció el historial de chat de otro usuario. No podía ver el contenido, pero podía ver los títulos de sus chats recientes", reveló la publicación de Twitter.

If you use #ChatGPT be careful! There's a risk of your chats being shared to other users! Today I was presented another user's chat history. I couldn't see contents, but could see their recent chats' titles.#security #privacy #openAI #AI pic.twitter.com/DLX3CZntao

— Jordan L Wheeler (@JordanLWheeler) March 20, 2023
Privacidad y protección de datos: el debate permanente

Este accidente sucedido con ChatGPT es un recordatorio importante para que todos los usuarios tengan extremo cuidado y conciencia respecto de la información sensible que comparten tanto con esta plataforma como con cualquier otra.

"Por favor, no compartas ninguna información sensible en tus conversaciones", advierte un cartel en el sitio web de OpenAI al entrar al chat. Aclara que la compañía "no puede eliminar mensajes específicos del historial de una persona", y que las conversaciones pueden ser utilizadas para el desarrollo del algoritmo.

Sin embargo, la firma reconoció que "es inevitable que surja la tentación" de compartir información confidencial con el chatbot, sobre todo a medida que las empresas sigan experimentando con el uso de la nueva herramienta.

Por su parte, Bloomberg informó que OpenAI cerró temporalmente ChatGPT el lunes en respuesta al fallo, pero que se volvió a poner en línea esa misma noche.

La barra lateral del historial de chat fue sustituida por un mensaje que indica que "El historial no está disponible temporalmente" y que la compañía está "trabajando para restaurar esta función lo antes posible."

Bloomberg analizó que la causa del problema puede ser un error en un software de código abierto no identificado, aunque OpenAI aún está investigando la causa exacta.

Esta nota habla de: