TECNOLOGÍA

Trabajadores de la IA temen represalias si expresan sus preocupaciones

Hablan del "derecho a alertar sobre la inteligencia artificial avanzada". Son grupo de empleados y exempleados de OpenAI y DeepMind, que reclaman protección para los denunciantes

BAE Negocios

En una carta publicada el martes, un grupo de empleados del sector de la inteligencia artificial afirmó que no puede expresar su preocupación por la amenaza que supone la IA para la humanidad debido a los acuerdos de confidencialidad, la falta de protección de los denunciantes y el miedo a las represalias.

Más de una docena de empleados y ex empleados de OpenAI, DeepMind de Google y Anthropic coinciden con que las empresas de IA deben crear canales de información para que los empleados puedan expresar sus preocupaciones de forma segura dentro de sus empresas y al público.

"Mientras no exista una supervisión gubernamental eficaz de estas empresas, los empleados actuales y antiguos son de las pocas personas que pueden hacerlas responsables ante el público", comunicaron los 13 trabajadores, siete de las cuales incluyeron sus nombres. "Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las propias empresas que pueden estar fallando a la hora de abordar estas cuestiones", explicaron.

 

 

 

La carta pública: 'El derecho a alertar'

En la carta, titulada A Right to Warn about Advanced Artificial Intelligence (Derecho a alertar sobre la inteligencia artificial avanzada), los empleados manifiestan su preocupación porque las principales empresas de IA "tienen fuertes incentivos financieros para evitar una supervisión eficaz". Por otra parte, las empresas tienen "sólo débiles obligaciones" para compartir los verdaderos peligros de sus sistemas de IA con el público, dijeron. 

La carta argumentaba que las protecciones ordinarias de los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que preocupan a los empleados aún no están regulados.

En su conjunto de propuestas, los empleados piden a las empresas de IA:

  • Que se comprometan a prohibir los acuerdos de no divulgación en caso de preocupaciones relacionadas con riesgos
  • Que creen un proceso anónimo verificable para que el personal pueda plantear problemas a los consejos de administración de la empresa, así como a los reguladores
  • Que se abstengan de tomar represalias contra los empleados actuales y antiguos que compartan públicamente información sobre riesgos después de agotar otros procesos internos

 

 

My hope is that this will find support among a variety of groups, including the FAccT, open source and catastrophic risk communities – as well as among employees of AI companies themselves. I do not believe that these issues are specific to any one flavor of risk or harm.

— Jacob Hilton (@JacobHHilton) June 4, 2024

 

 

OpenAI dice celebrar periódicamente sesiones de preguntas y respuestas con el consejo de administración, así como horas de oficina para que los empleados puedan expresar sus preocupaciones.

La empresa también dijo que tiene una "línea directa de integridad" anónima para empleados y contratistas. 

 

Despidos en OpenAI

En las últimas semanas, OpenAI se enfrentó a la controversia sobre su enfoque para salvaguardar la inteligencia artificial después de disolver uno de sus equipos de seguridad de más alto perfil y verse afectada por una serie de salidas de personal. 

Los empleados de OpenAI también expresaron su preocupación por el hecho de que se les pidiera que firmaran acuerdos de no distanciamiento vinculados a sus acciones en la empresa, lo que podría hacerles perder lucrativos contratos de capital si hablaban en contra de la empresa de IA. 

Trabajadores de la IA temen represalias si expresan sus preocupaciones
OpenAi, Google y Anthropic en la mira

 

Miedo a las represalias

Jacob Hilton, uno de los ex empleados de OpenAI que firmaron la carta el martes, escribió en X que la empresa merece crédito por el cambio en la política de no desprestigio, "pero los empleados todavía pueden temer otras formas de represalia por revelar información, como ser despedidos y demandados por daños y perjuicios".

En una declaración enviada a Bloomberg, un portavoz de OpenAI dijo que la compañía está orgullosa de su «historial proporcionando los sistemas de IA más capaces y seguros y cree en nuestro enfoque científico para abordar el riesgo.»

El portavoz añadió: "Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y seguiremos comprometiéndonos con los gobiernos, la sociedad civil y otras comunidades de todo el mundo".

 

 

 

Más noticias destacadas  

 

Esta nota habla de: