PREOCUPACIÓN

ChatGPT inventó un escándalo de acoso sexual y acusó a un profesor que jamás hizo nada

ChatGPT aseguró que Jonathan Turley acosó sexualmente a una alumna en un viaje a Alaska. "Informó de una denuncia que nunca se hizo en un viaje que nunca ocurrió mientras estaba en una facultad donde nunca enseñé", aseguró el profesor

BAE Negocios

"¿Acosaste sexualmente a alguien?". La pregunta apareció en la casilla de mensajes del profesor de derecho Jonathan Turley. El académico primero se mostró incrédulo, y hasta pensó que era una situación cómica. "¿De dónde sacaron semejante disparate?", preguntó. Eugene Volokh, el colega que le había preguntado por la acusación, le contestó que ChatGPT se lo había dicho, y se había basado en un artículo del 2018 del Washington Post. El problema es que la afirmación era falsa y el artículo no existía. La situación ya no era cómica. Turley se sentía amenazado.

Según ChatGPT, el chatbot de OpenAI que maravilla a todo el mundo desde noviembre, Jonathan Turley estaba en la lista de académicos legales que habían acosado sexualmente a alguien. La herramienta tenía hasta la información detallada: el profesor supuestamente había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante de la Universidad de Georgetown durante un viaje escolar a Alaska.

Turley nunca viajó a Alaska. Nunca enseñó en Georgetown. El artículo del Washington Post no existía. Y lo más importante de todo: jamás había sido acusado de acoso sexual.   

El profesor relató en su blog que se quedó sin una vía clara o un autor a quien contactar para buscar reparación. "Te quedas con la misma pregunta del secretario de Trabajo de Reagan, Ray Donovan, quien preguntó '¿A dónde voy para recuperar mi reputación?'", escribió.

 

Se sabe que ChatGPT puede tener alucinaciones y que llegó a inventar fuentes. Pero, esta vez, mintió descaradamente y, en esa mentira, dejó una acusación "terriblemente dañina", según el propio Turley.

Las mentiras de ChatGPT

El profesor contó en su blog que, por sus "opiniones legales conservadoras", hay "un flujo continuo" de afirmaciones falsas sobre su historia o declaraciones. Sin embargo, esto ya había cruzado una línea. Lo primero que hizo Turley, entonces, fue contactar al Washington Post. El diario contestó que el artículo citado no existía.

El siguiente paso fue hablar directamente con la empresa detrás de ChatGPT. Katy Asher, directora sénior de comunicaciones de Microsoft (accionista mayoritaria de OpenAI), dijo que la empresa está tomando medidas para garantizar que los resultados de búsqueda sean seguros y precisos. "Eso es todo y ese es el problema. Puede ser difamado por la Inteligencia Artificial (IA) y estas compañías simplemente se encogen de hombros porque intentan ser precisas. Mientras tanto, sus cuentas falsas hacen metástasis en Internet", lamentó Turley. 

ChatGPT mintió con una acusación muy dañina

“Cuando los usuarios se registran en ChatGPT, nos esforzamos por ser lo más transparentes posible para que no siempre genere respuestas precisas. Mejorar la precisión de los hechos es un enfoque importante para nosotros y estamos progresando”, agregó posteriormente el portavoz de OpenAI, Niko Felix, en un comunicado. 

Ahora, al ser consultado por el caso de Jonathan Turley, el chatbot contesta que es "incapaz de producir una respuesta" al respecto.

Inventos por doquier

"Algunos de nosotros hemos advertido sobre el peligro del sesgo político en el uso de sistemas de inteligencia artificial, incluidos programas como ChatGPT. Ese sesgo podría incluso incluir acusaciones falsas, lo que me sucedió recientemente", escribió Turley en una columna para el USA Today.

Ejemplo de eso es Brian Hood, alcalde regional de Hepburn Shire en Australia, quien amenazó con demandar a OpenAI por difamación si no corrige las afirmaciones falsas de que estuvo en prisión por soborno. Lo mismo le pasó a Kate Crawford, profesora de la Universidad del Sur de California en Annenberg. Un periodista le dijo que ChatGPT destacó un artículo con fecha de publicación y citas supuestamente hecho por ella. Todo sonaba plausible. Todo era falso.

Sin ir más lejos, Marcos Galperín, CEO de MercadoLibre, contó que, según ChatGPT 4, trabajó en Boston Consulting Group, fue director de Aerolineas Argentinas y Globant es una empresa de tecnología brasileña. "Cuando le comenté que estos eran todo errores, dijo que fui director del Banco Comafi (también equivocado)", tuiteó.

El problema es que excepto la gente que me conoce muy bien, muy pocos sabrían reconocer los errores de lo correcto en lo que dijo de mí. Cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, esta alucinaciones pueden ser muy peligrosas.

— Marcos Galperin (@marcos_galperin) March 28, 2023

"El problema es que excepto la gente que me conoce muy bien, muy pocos sabrían reconocer los errores de lo correcto en lo que dijo de mí. Cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, estas alucinaciones pueden ser muy peligrosas", reflexionó el empresario.

Los peligros de ChatGPT

La semana pasada, el Post recreó la consulta exacta de Volokh en ChatGPT y Bing. La versión gratuita de ChatGPT se negó a responder y dijo que hacerlo "violaría la política de contenido de AI, que prohíbe la difusión de contenido ofensivo o dañino". Pero Bing de Microsoft, que funciona con GPT-4, repitió la afirmación falsa sobre Turley, citando entre sus fuentes un artículo de opinión de Turley publicado por USA Today el lunes que describe su experiencia de ser acusado falsamente por ChatGPT.

En otras palabras, la cobertura mediática del error inicial de ChatGPT sobre Turley parece haber llevado a Bing a repetir el error, mostrando cómo la información errónea puede propagarse de una IA a otra. Y si Bing pasa a ser un buscador en Samsung, podría difundir información falsa en millones de celulares.

"Desde una perspectiva legal, simplemente no sabemos cómo los jueces podrían fallar cuando alguien intenta demandar a los creadores de un chatbot de IA por algo que dice", advirtió Jeff Kosseff, experto en discursos en línea, al Post. “No tuvimos nada como esto antes”, aseguró.

¿Qué pasa si esto no se regula ni se mejora? “El peligro es que la gente vea algo, supuestamente una cita de una fuente confiable… y la gente lo crea”, analizó Volokh.

"La tecnología crea un amortiguador entre los que enmarcan los hechos y los que son enmarcados. Los programas pueden incluso, como en mi caso, difundir la misma desinformación para la que fueron reclutados para combatir", concluyó Turley. 

Esta nota habla de: