Trabajadores de firmas de IA advierten riesgos por la falta de regulaciones
La falta de controles sobre el uso de esa avanzada tecnología "podría provocar la extinción humana" advirtIeron los expertos en una carta pública
Un grupo de empleados y extrabajadores de empresas que se dedican a la inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron que las compañías aprovechan la falta de legislación internacional para ocultar los posibles riesgos del uso de esa tecnología.
"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente sólo tienen vagas obligaciones de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil", señala una carta firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic.
En el documento se enumeran algunos de los posibles riesgos de esta tecnología "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".
Los expertos, algunos de los cuales firmaron desde el anonimato, aseguran tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".
Trabas
"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalca el texto.
La falta de regulación y los estrictos contratos de confidencialidad entre las empresas y sus empleados dificultan las posibles denuncias contra las actividades de estas compañías, según indican en el documento.
En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo", y piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores puedan plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".
OpenAI, que comenzó como un laboratorio de investigación sin fines de lucro y consiguió una enorme fama con ChatGPT en 2022, está trabajando en crear inteligencia artificial general, o A.G.I. -un programa capaz de hacer cualquier cosa que un humano pueda hacer-, según indicó la prensa especializada.
Sin normas
En marzo de 2023, un grupo de empresarios del sector tecnológico, expertos y políticos solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con IA muy potente porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".
Uno de los mayores competidores de los chatbots de OpenAI -que cuenta con el respaldo de Microsoft- ahora es Google, pero hay otras compañías que también les pisan los talones, como Anthropic, empresa fundada por varios exempleados de OpenAI.
Por el momento, no existen normativas internacionales de la Inteligencia Artificial.
El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Euoropea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.
La ONU, por su parte, insistió ante los Estados miembros que es urgente consensuar una regulación para lo cual estableció un 'consejo de sabios', aunque esto no se tradujo en resultados concretos hasta ahora.