Tecnología

"Nivel experto": así funciona la inteligencia artificial de Google que aprobó el examen de medicina

El modelo de IA "Med-PaLM 2" de Google alcanzó una puntuación de excelencia en el examen de licencia médica de EE.UU., un récord que anticipa una revolución en la salud y abre un debate ético.

BAE Negocios

Esta IA no solo aprobó, sino que lo hizo con una calificación del 85%. Su hazaña muestra el potencial de la IA para diagnosticar y asistir a los médicos, pero también plantea preguntas sobre la responsabilidad y el rol humano en la medicina.

No fue a la facultad, no hizo residencias y no tiene un título colgado en la pared, pero acaba de aprobar uno de los exámenes más difíciles del mundo. Med-PaLM 2, un modelo de lenguaje de inteligencia artificial desarrollado por Google, alcanzó un rendimiento de nivel experto en el examen de licencia médica de Estados Unidos (USMLE), un hito que Guinness World Records podría registrar como un punto de inflexión en la historia de la IA.

 

A diferencia de modelos anteriores, esta IA fue entrenada específicamente con una base de datos masiva de conocimientos médicos. Demostró una capacidad notable para razonar, interpretar información de casos complejos y responder preguntas de diagnóstico.

Una revolución en el diagnóstico y la investigación

El potencial de esta tecnología para transformar el sector de la salud es inmenso. Expertos en tecnología sanitaria señalan que la IA podría convertirse en una herramienta indispensable para los médicos. Sus aplicaciones incluyen:

  • Asistencia en el diagnóstico: Analizar síntomas y datos de laboratorio para sugerir posibles enfermedades, reduciendo el error humano.
  • Medicina personalizada: Diseñar tratamientos basados en el perfil genético y el historial médico específico de un paciente.
  • Aceleración de la investigación: Analizar millones de estudios científicos para encontrar nuevas conexiones y acelerar el desarrollo de fármacos.
El debate ético: ¿Quién es el responsable?

El avance de la IA en medicina también abre una caja de Pandora de dilemas éticos y regulatorios. La comunidad médica y los bioeticistas plantean preguntas cruciales:

  • Responsabilidad: Si una IA comete un error de diagnóstico, ¿quién es el culpable? ¿El médico que la usó, el hospital o la empresa que la programó?
  • Sesgos algorítmicos: ¿Están las IAs entrenadas con datos representativos de toda la población o podrían perpetuar sesgos raciales o de género en la atención médica?
  • El factor humano: ¿Puede un algoritmo reemplazar la empatía, la intuición y la relación de confianza entre un médico y su paciente?

El récord de Med-PaLM 2 no significa que los médicos vayan a ser reemplazados mañana. Pero sí anuncia la llegada de un nuevo y poderoso colega a la sala de operaciones y al consultorio, uno que nos obliga a redefinir el futuro de la medicina y el lugar que ocuparán los humanos en ella.

Esta nota habla de: