No se ponen de acuerdo: ¿la Inteligencia Artificial es tan peligrosa como parece?
Los líderes tecnológicos se debaten si hay que evitar un apocalipsis de la IA o centrarse en problemas como los sesgos o la desinformación
Aniquilación total de la humanidad o problemas de desinformación. Para los pioneros de la Inteligencia Artificial (IA), no hay punto medio sobre las consecuencias que puede tener esta tecnología. Mientras el mundo se debate hacia dónde va, quienes primero desarrollaron la IA se dividen en dos bandos muy marcados para analizar el futuro y sus peligros.
"Es el fin del mes frente al fin del mundo", analizó Nicolas Miailhe, cofundador de Future Society, un grupo que trabaja en la reflexión sobre la gobernanza de la inteligencia artificial y trata de achicar la brecha que existe entre las dos posiciones.
Aunque existen algunos intentos de tender puentes entre ambos grupos, una respuesta común está lejos de aparecer. Muchas empresas que operan con IA se benefician de estas discusiones, y hasta les conviene que sigan por mucho tiempo. De hecho, el debate llegó a un punto tal que Chuck Schumer, líder de la mayoría del Senado de Estados Unidos, convocó a referentes de la IA a la primera de una serie de reuniones a puertas cerradas para discutir temas que incluyen "escenarios catastróficos".
Los "catastrofistas" de la IA
De un lado se ubican los "Dr. Frankenstein", aquellos visionarios que ahora se asustan ante su propia creación. Allí está, por ejemplo, Sam Altman, fundador de OpenAI, la empresa que fabricó ChatGPT y marcó un punto de inflexión en la historia de la humanidad. Altman admitió estar "un poco asustado" por lo que pueda llegar a pasar con esta tecnología, y hasta recorrió el mundo con la advertencia de que puede haber "graves daños" o algo peor.
Lo acompaña Elon Musk, el magnate que lidera Tesla, X (antes Twitter) y SpaceX, pero que también fundó OpenAI. En un evento del Wall Street Journal (WSJ) en mayo pasado, Musk advirtió que "la IA tiene una probabilidad no nula de aniquilar a la humanidad", y también firmó una carta junto a más de mil expertos en la que pedía frenar el desarrollo por seis meses. Poco después lanzó su propia empresa de IA.
Dario Amodei, líder del desarrollador de IA Anthropic, también está en el grupo que advierte del peligro existencial. Este verano declaró ante el Congreso de Estados Unidos que la IA podría suponer un riesgo de este tipo para la humanidad.
Este "riesgo x", como se denomina al riesgo existencial, salió a la luz con la expansión de ChatGPT. Según David Krueger, profesor de aprendizaje automático en la Universidad de Cambridge, cualquiera que hiciera estas advertencias en otro momento podía quedar como un loco, algo que cambió desde el ChatGPT. Para todos los "catastrofistas", el riesgo de extinción que presenta la IA está a la altura de los peligros de las pandemias y la guerra nuclear. Al menos así lo expresaron en la declaración que firmaron Musk y otros miles de expertos.
La IA no es tan peligrosa como pareceEn la vereda de enfrente están aquellos más moderados, críticos incluso de los catastrofistas. Para ellos, hablar de extinción no es más que una distracción alimentada por la ciencia ficción o incluso de perversa estratagema de marketing. En cambio, centran la discusión en cómo se aplica la IA hoy y qué daños puede causar en la vida cotidiana, como las herramientas que ayudan a producir una potente desinformación sobre las elecciones o los sistemas que amplifican el impacto de los ataques humanos.
"Es obvio que estos tipos se benefician del bombo publicitario que se sigue alimentando", afirmó al WSJ Nicolas Miailhe. El beneficio, según los moderados, viene por hablar de la IA como una tecnología extremadamente sofisticada, capaz de aniquilar la humanidad. Así, no solo se fomenta la curiosidad por ella, sino también las ganas de usarla.
Un riesgo para ellos es, por ejemplo, que las Big Tech pasen a ser las Big AI. Esto significa que el poder no pase a las grandes empresas de internet, sino a las grandes empresas de IA. A ellos les preocupa cómo estas herramientas, accidental o intencionadamente, explotan a los trabajadores y agravan la desigualdad de millones de personas. Quieren que las empresas tecnológicas y los reguladores apliquen normas y técnicas de formación para reducir esa amenaza.
Melanie Mitchell, destacada investigadora de IA y profesora del Santa Fe Institute, dijo en una entrevista que el debate sobre el riesgo existencial está "todo basado en especulaciones, realmente no hay ciencia".
El debate que se viene: la IA"Es una dicotomía muy real y cada vez mayor", explicó Nicolas Miailhe al WSJ. La pelea viene de hace años. En 2015, por ejemplo, hubo una reunión entre académicos y científicos que casi termina a las piñas, según recordó Steven Weber, profesor de la Universidad de California en Berkeley. Mientras unos hablaban de daños actuales, otros decían que un aumento en las hipotecas no significaba nada si la humanidad podía acabarse.
"La gente de ambos bandos se hace un flaco favor si no está de acuerdo con la otra parte", opinó Max Tegmark, presidente del Future of Life Institute, en una entrevista. Para él, a las empresas les interesa avivar la división entre las personas centradas en cuestiones de equidad y el riesgo existencial para evitar la regulación.
La brecha parece inabarcable. Altman insiste con que sus advertencias no son "una especie de jugada de ajedrez", sino que los riesgos existen. En este sentido, los catastrofistas no hablan del riesgo existencial como un potencial Terminator o Skynet, sino más bien una dominación sutil de la IA hasta tomar el control. Por eso, piden trabajar en la llamada alineación: que las máquinas del futuro tengan los mismos objetivos que los humanos.
Sin embargo, no todo es pelea. Algunas organizaciones pretenden tender puentes mediante la unión de ambas posturas. Mientras que hay moderados que dicen que el riesgo existencial puede ser una preocupación a futuro, pero no actual, también existen catastrofistas que afirman que el camino hacia la catástrofe bien podría provenir de preocupaciones destacadas por la comunidad ética, como la desinformación industrializada que derriba gobiernos o inicia guerras.
Ambas partes están interesadas en poder perforar la caja negra de cómo piensa la IA, lo que se denomina el problema de la interpretabilidad. Quizás solucionar ese primer interrogante sea la clave para terminar con el debate.