Facebook e Instagram comenzarán a aclarar cuando se use IA en las publicaciones
Además de demarcar el uso de inteligencia artificial presente en los contenidos, también se catalogará de "alto riesgo" a aquellos que engañen al público sobre "asuntos de importancia"
Meta, propietaria de Facebook e Instagram, anunció el viernes importantes cambios en sus políticas sobre medios creados y alterados digitalmente.
Este nuevo enfoque cambiará la forma en que la empresa trata el contenido manipulado, pasando de centrarse en la eliminación de un conjunto limitado de publicaciones a mantener el contenido y proporcionar a los espectadores información sobre cómo se hizo.
Contenido engañoso: cómo será la advertencia a los usuarios
La empresa empezará a aplicar en mayo la etiqueta "Hecho con IA" a los vídeos, imágenes y audio generados por IA que se publiquen en Facebook e Instagram, ampliando una política que hasta ahora solo se aplicaba a una pequeña parte de los vídeos manipulados, según explicó en un blog oficial la vicepresidenta de política de contenidos, Monika Bickert.
Asimismo, también se pondrá etiquetas separadas y más prominentes a los medios audiovisuales alterados digitalmente que planteen un "riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia", independientemente de si el contenido fue creado utilizando IA u otro tipo de tecnología. Estas comenzarán a aplicarse lo antes posible.
Por otro lado, Bickert explicó que la eliminación de contenidos se limitará "únicamente a los casos de mayor riesgo en los que el contenido pueda estar vinculado a un daño, ya que la IA generativa se está convirtiendo en una herramienta de expresión creativa de uso generalizado", puesto que buscan actuar en concordancia con los principios en los que se basan sus normas comunitarias: que las personas sean libres de expresarse y, al mismo tiempo, estén seguras utilizando sus servicios.
Últimas noticias sobre Inteligencia Artificial
Etiquetado: en qué aplicaciones de Meta estará vigente
Meta ya había anunciado previamente un plan para detectar imágenes creadas con herramientas de IA generativa de otras empresas mediante marcadores invisibles incorporados a los archivos, pero en aquel momento no dio una fecha de inicio.
Un portavoz de la empresa dijo que el enfoque de etiquetado se aplicaría a los contenidos publicados en Facebook, Instagram y Threads.
Sus otros servicios, incluidos WhatsApp y los cascos de realidad virtual Quest, están cubiertos por normas diferentes.
El impacto de la desinformación en las elecciones de EE.UU.
Los cambios se producen meses antes de las elecciones presidenciales estadounidenses de noviembre, que, según advierten los investigadores tecnológicos, podrían verse transformadas por las tecnologías de IA generativa.
Las campañas políticas ya empezaron a desplegar herramientas de IA en lugares como Indonesia, sobrepasando los límites de las directrices publicadas por proveedores como Meta y OpenAI, líder del mercado de IA generativa.
En febrero, la junta de supervisión de Meta calificó de "incoherentes" las normas vigentes de la empresa sobre manipulación de medios, tras revisar un vídeo de Joe Biden publicado en Facebook el año pasado en el que se alteraban imágenes reales para sugerir erróneamente que el presidente estadounidense se había comportado de forma inapropiada.
Se permitió que las imágenes permanecieran colgadas, ya que la política de "medios manipulados" de Meta solo prohíbe los vídeos alterados engañosamente si han sido producidos por inteligencia artificial o si hacen que parezca que las personas dicen palabras que en realidad nunca han dicho.
La junta directiva dijo que la política también debería aplicarse a los contenidos no generados por IA, que "no son necesariamente menos engañosos" que los generados por IA, así como a los contenidos de solo audio y a los vídeos que muestran a personas haciendo cosas que en realidad nunca dijeron o hicieron.
Leé nuestras noticias destacadas