Premios Nobel y ONG exigen una regulación global urgente para la IA
Unos 70 organismos y 200 referentes internacionales advirtieron que la falta de controles en la IA amenaza la seguridad y los derechos humanos.
Más de 70 organizaciones internacionales y unas 200 personalidades del ámbito académico y científico reclamaron a los Gobiernos avanzar de inmediato con una regulación global para la inteligencia artificial (IA). La petición, difundida en el marco de la 80° Asamblea General de la ONU, alerta sobre los riesgos de una tecnología que se desarrolla a un ritmo vertiginoso y que, de no establecerse límites claros, podría tener consecuencias graves para la humanidad.
El documento reclama un acuerdo político internacional antes de 2026 que defina “líneas rojas” sobre el uso de sistemas de IA y que garantice mecanismos de cumplimiento efectivos. Entre los firmantes se encuentran Premios Nobel de Física, Química y Economía, además de investigadores de prestigiosas universidades de Europa, Estados Unidos y Asia. “Algunos sistemas avanzados ya mostraron conductas engañosas y dañinas, y aun así se les otorga más autonomía para actuar y decidir en el mundo. Si no se controla, será cada vez más difícil mantener un control humano significativo en los próximos años”, remarcaron.
El pedido coincide con la creciente preocupación internacional en torno al avance de estas tecnologías. El comunicado sostiene que la IA puede amplificar riesgos ya existentes y generar nuevos escenarios críticos: desde pandemias provocadas hasta campañas de desinformación a gran escala, manipulación política, amenazas a la seguridad nacional e internacional, desempleo masivo y violaciones sistemáticas a los derechos humanos.
En los últimos meses, distintos organismos multilaterales debatieron sobre la necesidad de regular el sector. La Unión Europea dio el primer paso con la aprobación de la Ley de Inteligencia Artificial, que establece categorías de riesgo y limita el uso de sistemas considerados de “alto impacto”. Estados Unidos, en tanto, trabaja en guías regulatorias que incluyen la obligación de reportar pruebas de seguridad. China, por su parte, avanzó con normativas que restringen el uso de algoritmos en redes sociales y controlan el desarrollo de modelos de lenguaje.
Sin embargo, los expertos señalan que ninguna regulación nacional será suficiente frente a la magnitud del desafío. “Se requiere un marco internacional que evite una carrera tecnológica sin frenos y que establezca responsabilidades claras”, plantean los investigadores. En ese sentido, algunos referentes comparan la situación actual con la etapa previa a los acuerdos sobre proliferación nuclear: un momento decisivo en el que los Estados deben priorizar la seguridad colectiva sobre la competencia entre potencias.
Advertencias
La ONU se perfila como el ámbito natural para impulsar ese consenso. Durante la Asamblea General, varios países propondrán la creación de un organismo especializado que funcione como autoridad global en materia de IA, con capacidad para monitorear desarrollos y aplicar sanciones en caso de incumplimientos. Aunque el debate recién comienza, la presión de científicos y organizaciones apunta a acelerar los tiempos, convencidos de que la ventana de oportunidad para fijar reglas claras se acorta con rapidez.
El llamado de Premios Nobel, universidades y ONG se suma a las advertencias que ya hicieron empresas tecnológicas, laboratorios de investigación y líderes políticos. A diferencia de otras etapas de innovación, la inteligencia artificial despierta una coincidencia inusual: quienes la desarrollan y quienes la estudian coinciden en que la ausencia de límites podría transformarla en una amenaza para la estabilidad global.