¿Cómo sobrevivir a la inteligencia artificial?
Es momento de repensar el rol de los científicos, de los gobiernos, de las empresas y de la sociedad
En agosto de 2025, Geoffrey Hinton, considerado el "padrino de la inteligencia artificial" y ganador del Premio Turing en 2018, lanzó una advertencia que resonó en el mundo académico y político: la única forma de que la humanidad sobreviva a la inteligencia artificial general (IAG) sería dotándola de un "instinto maternal". Su metáfora fue tan provocadora como inquietante: al igual que un cachorro de tigre puede parecer dócil y encantador pero pronto se convierte en un depredador incontrolable, una inteligencia artificial superhumana podría seguir la misma lógica. No bastará con encerrarla o limitarla: habrá que criarla con una orientación protectora hacia la humanidad.
Según planteó Hinton, la probabilidad de extinción humana en las próximas décadas oscila entre un 10% y un 20%. Lo más inquietante es que sitúa la llegada de la IAG mucho antes de lo previsto: entre cinco y veinte años. Esta visión obliga a repensar el rol no solo de los científicos sino también de los gobiernos, de las empresas tecnológicas y de la sociedad civil en su conjunto.
La inteligencia artificial suele describirse como "contraevolutiva" porque interfiere con la selección natural. Algo similar se decía de la medicina: al permitir sobrevivir a quienes antes no lo harían, también altera el curso darwiniano. El verdadero problema no es esa supuesta "contraevolución" sino el riesgo de una singularidad: el momento en que la inteligencia artificial llegue a superar al ser humano.
Stephen Hawking lo advirtió en 2014 con crudeza: "El desarrollo de la inteligencia artificial completa podría significar el fin de la especie humana". La singularidad no solo pondría en jaque nuestras instituciones sino también nuestra subjetividad. Aquello que nos define (el libre albedrío) se ve cada vez más invadido por algoritmos, redes sociales y dispositivos que condicionan lo que percibimos como real.
Cien mil millones de neuronas
La neurociencia recuerda que nuestro cerebro es un entramado de casi cien mil millones de neuronas, donde las decisiones surgen de la tensión entre emoción y razón. Sin embargo, la inteligencia artificial influye en esas decisiones de manera inédita: introduce sesgos, genera adicciones digitales y sobrecarga nuestra cognición. La tecnología, que prometía liberarnos, también nos agota.
Los algoritmos no solo calculan, también deciden. Y lo hacen con la frialdad de la estadística, aunque con efectos reales en la vida cotidiana. Desde las recomendaciones en redes sociales hasta los filtros de crédito bancario, la inteligencia artificial ya moldea nuestras experiencias, con el consecuente riesgo de que esas decisiones no solo nos sesguen sino que además desplacen la frontera de lo humano.
Algunos ven en la inteligencia artificial un espejo donde se ve reflejada nuestra subjetividad. Al imitar emociones o empatía, las máquinas nos devuelven una versión reducida, programada, de lo que significa sentir. El peligro no es que la imitación sea imperfecta sino que termine reemplazando lo auténtico.
Si bien puede sonar utópica, la propuesta de Hinton sobre el "instinto maternal" plantea una alternativa ante el enfoque clásico de "controlar" a la máquina. La clave no sería imponerle límites externos sino dotarla con una motivación intrínseca que la impulse para proteger a la humanidad. La metáfora es potente: así como una madre cuida a hijo no porque esté obligada sino porque lo siente como parte de sí, la IAG debería vernos como un entidad digna de ser preservada.
Otros científicos tienen visiones complementarias. Max Tegmark, físico del MIT y fundador del Future of Life Institute, compara la inteligencia artificial con el poder nuclear. Así como, antes de Trinity, los físicos de Manhattan calcularon la probabilidad de que una bomba desencadenara una reacción capaz de destruir el planeta, actualmente deberíamos calcular los riesgos de la inteligencia artificial avanzada. Tegmark estima que, sin salvaguardas, la probabilidad de amenaza existencial ronda el 90%.
Yoshua Bengio, otro de los padres del aprendizaje profundo, propone limitar el alcance creando "AI Scientists": inteligencias confinadas a la generación de conocimiento teórico, sin contacto con el mundo físico. Serían una suerte de investigadores virtuales, capaces de acelerar descubrimientos médicos o climáticos, pero sin riesgo de manipular armas o infraestructuras críticas.
Paul Christiano, ex OpenAI, trabaja en técnicas de alineamiento. Fue uno de los creadores del aprendizaje por retroalimentación humana (RLHF) que usan sistemas como ChatGPT. Su apuesta es que los futuros modelos no solo respondan con datos sino que también comprendan y respeten valores éticos y sociales.
Más allá de los científicos, varios institutos advierten sobre los peligros. El RAND Institute analiza escenarios que van desde pandemias creadas por algoritmos hasta proliferación nuclear facilitada por la inteligencia artificial. El Future of Life Institute revisó las políticas de seguridad de las principales empresas del sector: ninguna superó una calificación "D", salvo Anthropic con un tibio "C+".
Mark MacCarthy, desde Brookings, recuerda que los riesgos no son solo futuros: hoy mismo, la inteligencia artificial amplifica la desinformación, reemplaza empleos y perpetúa sesgos. Si miramos solo la extinción posible y olvidamos los daños presentes podemos perder la batalla en dos frentes.
El desafío no es nuevo. Cada revolución tecnológica generó temores similares: la imprenta, la máquina de vapor e incluso Internet. Todas transformaron nuestra cognición, pero ninguna nos extinguió. ¿Por qué sería distinto ahora? La diferencia radica en la velocidad y en el alcance. Mientras que la máquina de vapor necesitó siglos para expandirse, la inteligencia artificial se multiplica en meses, integrada a la vida cotidiana de miles de millones de personas. Entonces, el dilema es doble: cómo regular un poder global en un mundo fragmentado por tensiones geopolíticas y cómo preservar la autonomía humana frente a máquinas que prometen resolver problemas más rápido de lo imaginado.
La manipulación genética y la inteligencia artificial se encuentran en un terreno común: ambas pueden salvar vidas, pero también destruirlas. Con CRISPR ya es posible corregir genes patológicos, pero también crear virus letales. Y con redes neuronales se pueden descubrir fármacos o diseñar armas.
La gran pregunta es qué motivará a la IAG. Si su núcleo se construye alrededor de la competencia, la carrera armamentística y el beneficio económico, entonces replicará nuestros defectos. Pero si en cambio se orienta hacia el cuidado, la cooperación, la empatía o el institno maternal, aunque sean simulados, quizá logremos sobrevivir.