ROBO BOYS

Clonó el chat de sus amigos con Inteligencia Artificial y el resultado fue sorprendente

Usó mensajes antiguos para modelar la personalidad de cada uno de sus amigos. Las conversaciones parecían reales, los sorprendieron y los hicieron reír

BAE Negocios

En tiempos de virtualidad y distancias, el chat con amigos es un refugio para muchos. Allí vuelcan sus chistes, anécdotas, quejas y preocupaciones sin el temor por el qué dirán, la cancelación o la ignorancia. Los chats con amigos son también un salvavidas, un consuelo y una forma de conexión. Eso dijo el científico de datos Izzy Miller, quien tiene dos grupos exactamente iguales, con las mismas personas y las mismas charlas. Uno de ellos, sin embargo, es tan solo un espejismo creado con Inteligencia Artificial (IA).

"Pensé que sería divertido y algo siniestro reemplazarlo", recordó Miller. A él le pareció entretenida la idea de hablar con un clon de su grupo de amigos, cada uno con su personalidad y expresiones, pero replicadas por la IA. Para eso, descargó más de medio millón de mensajes de un grupo que tiene hace siete años y los usó para entrenar a una IA y así crear el chat paralelo.

¿Cómo lo hizo? Para replicar el grupo usó el modelo de lenguaje LLaMA, de Meta, que usa la misma tecnología que impulsa a los chatbots como Bing de Microsoft y ChatGPT de OpenAI. Tuvo suerte, porque descargó este modelo de lenguaje justo cuando se filtró en Github y días antes de su eliminación. Luego, ordenó los mensajes por autor e instó al modelo a replicar la personalidad de cada miembro: Harvey, Henry, Wyatt, Kiebs, Luke y el propio Miller.

 

Un par de semanas y cien dólares después, Miller presentó a los "robo boys", los clones de sus amigos que hablaban en el chat como si fueran los reales. Las charlas eran "impresionantes", y algunas de ellas se sentían "muy reales", confesó el científico de datos a The Verge.

Exacto, pero no perfecto

Los "robo boys" discutían sobre quién se tomó la cerveza de Henry de una forma tan real que Miller tuvo que buscar en el historial del chat grupal para comprobar que el modelo no estaba simplemente reproduciendo el texto de sus datos de entrenamiento.

"Me sorprendió mucho el grado en que el modelo aprendió inherentemente cosas sobre quiénes éramos, no solo sobre la forma en que hablamos. Sabe cosas sobre con quién estamos saliendo, a dónde fuimos a la escuela, el nombre de nuestra casa en la que vivíamos...", contó Miller, impresionado. 

Algunas capturas del chat clonado de Miller (The Verge)

Los resultados lo hicieron reír un largo rato. “Hay algo maravilloso en capturar perfectamente la voz de tus amigos. No es del todo nostalgia, ya que las conversaciones nunca sucedieron, pero es una sensación similar de disfrute", escribió Miller en su blog. "Esto realmente nos dio más horas de diversión profunda para mí y mis amigos de lo que podría haber imaginado”.

Sin embargo, el sistema no es un clon perfecto. El modelo de IA todavía no puede distinguir de manera confiable entre eventos del pasado y del presente, por lo que a veces cree que exnovias son las parejas actuales, al igual que con trabajos o casas en las que sus amigos ya no están. ¿Por qué? Porque el sentido del sistema entiende cuanto más se habla de algo, más probable es que los bots se refieran a él. 

Así, los clones de sus amigos actúan como si tuvieran 21 y 22 años, es decir, en su época universitaria, porque fue cuando el chat real estuvo más activo que nunca. Tampoco es que a Miller le preocupen estos problemas: “Hace a lo gracioso que es todo esto. Es una ventana al pasado”, dijo a the Verge.

El auge de los chatbots y los miedos que trae

Los avances de la IA permitieron que los "robo boys" cobren vida, pero eso no significa que cualquiera pueda clonar a su grupo de amigos. Miller es científico de datos, y eso fue clave para este proyecto: cuenta con la experiencia y el trabajo justo para tener las herramientas necesarias. Pese a esto, Miller demostró la tendencia que se viene: alimentar de texto a un modelo de lenguaje, ajustarlo con un conjunto de datos específico y replicar una tarea particular. 

Eso se puede ver en el famosísimo ChatGPT, en Bard de Google o en el chatbot Bing de Microsoft, entre muchos otros chatbots. Y eso ya asusta a muchos especialistas. Por eso, más de 1.000 expertos —entre los que estaba Elon Musk— firmaron una petición para detener su desarrollo por seis meses.

El uso del ChatGPT se disparó en los últimos meses

¿Qué puede pasar? Algunos sugirieron que los gigantes tecnológicos con grandes cantidades de datos personales, como Google, podrían usarlos para crear copias digitales de los usuarios. Estos podrían ser entrevistados en su lugar, tal vez por posibles empleadores o incluso por la policía. Otros sugirieron que la propagación de los bots de IA podría exacerbar el aislamiento social: ofrecer formas de compañía más confiables y menos desafiantes en un mundo donde las amistades a menudo ocurren en línea de todos modos.

MIller, sin embargo, calmó las aguas. Explicó que la experiencia fue divertida porque era obvio que el chat era una imitación, y lo gracioso salió de las reacciones a los "robo boys" desde su grupo real. "Gran parte de la alegría vino de tener una conversación falsa con el bot y luego interpretarla en la realidad", ponderó Miller.

Esta nota habla de: