De asistentes a “agentes”: la IA que planea viajes, compra pasajes y organiza tu agenda
En inteligencia artificial, un agente es un sistema capaz de actuar de forma autónoma en nombre del usuario. A diferencia de un asistente tradicional como Siri o Alexa, no se limita a responder preguntas: puede ejecutar tareas completas, encadenar pasos y tomar decisiones para cumplir un objetivo. Esta idea, popularizada por herramientas experimentales como AutoGPT, ya se integra en productos de gigantes tecnológicos.
En los últimos 12 meses, la competencia por desarrollar agentes más versátiles y confiables se ha acelerado. Las grandes tecnológicas han incorporado esta capacidad en sus productos insignia, buscando que la IA pase de ser una herramienta pasiva a un colaborador activo en la vida digital del usuario.
-OpenAI lanzó el Agent Mode en ChatGPT, que permite al modelo navegar la web, llenar formularios, analizar datos o integrar aplicaciones como Gmail o GitHub. Puede, por ejemplo, planificar un viaje, comprar pasajes y armar un itinerario sin intervención manual, siempre pidiendo confirmación en acciones sensibles. La empresa reconoce riesgos como el prompt injection (instrucciones maliciosas ocultas) y ofrece controles para limitar accesos y borrar historiales.
-Anthropic presentó Claude 3.5 con la función experimental computer use, que le permite operar una computadora como un usuario: mover el cursor, hacer clics, escribir texto y manejar aplicaciones. Varias empresas, como es el caso de Replit, ya lo usan para probar software automáticamente. Aunque supera a otros modelos en pruebas de uso de herramientas, Anthropic recomienda empezar con tareas de bajo riesgo, dado que aún comete errores en acciones simples y enfrenta riesgos como automatizar abusos.
-Microsoft incorporó Copilot Vision en Windows y Edge: con permiso del usuario, “ve” la pantalla para dar asistencia contextual. Puede resumir artículos, resaltar datos en un sitio o guiarte paso a paso en un proceso. La empresa afirma que no guarda las imágenes ni las usa para entrenar modelos, pero la transmisión constante de lo que se ve en la pantalla genera preocupación.
Estos agentes prometen ahorrar tiempo y simplificar tareas: delegar compras online, gestionar agenda, procesar documentos o realizar investigaciones complejas. Sin embargo, su poder trae desafíos de seguridad y privacidad. Dar acceso a correos, calendarios o pantallas implica copiar datos personales a servidores remotos; la recomendación es otorgar permisos mínimos y temporales, y supervisar resultados.
Los pioneros de la inteligencia artificial moderna —Geoffrey Hinton, Yoshua Bengio y Yann LeCun, ganadores del Premio Turing (el” Nobel de la computación”) y conocidos como los “padrinos” de la IA— coinciden en el potencial transformador de los agentes, aunque difieren en su nivel de alarma. Hinton advierte que otorgar demasiada autonomía a estos sistemas podría acarrear consecuencias graves, estimando un 10%-20% de riesgo existencial en las próximas décadas. Bengio considera que son “el camino más peligroso” hacia una IA general y pide regulaciones estrictas. LeCun, más optimista, cree que la AGI aún está lejos, pero reconoce que la seguridad debe avanzar al mismo ritmo que la tecnología.
En este contexto de entusiasmo y cautela, las medidas de seguridad implementadas por cada empresa son apenas un primer paso. La verdadera responsabilidad recae también en el usuario: conocer los límites de estas herramientas, otorgar permisos mínimos y temporales, y supervisar siempre los resultados. El debate entre expertos recuerda que, aunque hoy los agentes actúan bajo nuestras órdenes, su creciente autonomía exige precaución para asegurar que sigan trabajando para nosotros… y no al revés.
* El autor es profesor de la UCEMA