banner
Centro de Noticias
Experiencia y maestría incomparables.

Contenido de IA: la UE pide a las grandes tecnológicas que aborden la desinformación

Jul 14, 2023

La Comisión Europea ha pedido a las plataformas en línea que detecten y etiqueten el contenido generado por IA para combatir la desinformación. ¿Puede la UE seguir el ritmo de los avances tecnológicos?

El organismo ejecutivo de la Unión Europea ha pedido a las plataformas tecnológicas, incluidas Google, Facebook, YouTube y TikTok, que detecten fotos, videos y textos generados por inteligencia artificial (IA) y los etiqueten claramente para los usuarios. Es parte del intento de la Comisión Europea de tomar medidas enérgicas contra la desinformación, que los funcionarios de la UE advierten que ha estado prosperando desde el comienzo de la guerra de Rusia en Ucrania.

Ahora, Bruselas teme que las tecnologías generativas de inteligencia artificial estén creando un terreno aún más fértil para la difusión de noticias falsas e información falsa.

"Los chatbots avanzados como ChatGPT son capaces de crear contenido y elementos visuales complejos y aparentemente bien fundamentados en cuestión de segundos", dijo a los periodistas el lunes la vicepresidenta de la Comisión Europea, Vera Jourova.

"Los generadores de imágenes pueden crear imágenes de apariencia auténtica de eventos que nunca ocurrieron", dijo Jourova. "El software de generación de voz puede imitar la voz de una persona en base a una muestra de unos pocos segundos".

Advirtiendo sobre la desinformación rusa generalizada en Europa Central y del Este, Jourova dijo que las máquinas no tenían "ningún derecho" a la libertad de expresión. Ha encargado a los 44 signatarios del código de prácticas de la Unión Europea contra la desinformación que ayuden a los usuarios a identificar mejor el contenido generado por IA.

"El etiquetado debe hacerse ahora, inmediatamente", dijo.

Las empresas de tecnología no tienen la obligación de cumplir con la última solicitud de Bruselas y no hay sanciones si no lo hacen, porque el código de práctica es puramente voluntario. Andrea Renda, investigadora principal sobre economía digital del Centro de Estudios de Política Europea, cree que también puede haber barreras técnicas.

"Nada garantiza que puedan detectar en tiempo real que la IA genera algo", dice a DW. Renda cree que la mayoría de las empresas trabajarán "sobre la base del mejor esfuerzo", pero dijo que el resultado probablemente estaría "lejos del 100%".

Pero Jourova dijo que el CEO de Google, Sundar Pichai, la tranquilizó. "Le pregunté: ¿Desarrollaste tecnología lo suficientemente rápido para detectar la producción de IA y etiquetarla para que la gente pueda ver que no lee el texto producido por personas reales? Y su respuesta fue: Sí, pero estamos desarrollando, están mejorando aún más las tecnologías", dijo.

Hay un vacío evidente en la lista de invitados del club antidesinformación de Bruselas: Twitter. En mayo, la plataforma propiedad del multimillonario Elon Musk se retiró del código de prácticas de la UE. Jourova no quedó impresionada: al optar por no participar, dijo, Twitter "eligió la confrontación".

"Twitter ha atraído mucha atención, y sus acciones y el cumplimiento de la ley de la UE serán examinados enérgica y urgentemente", dijo Jourova a los periodistas el lunes.

Para ver este video, habilite JavaScript y considere actualizar a un navegador web que admita video HTML5

En agosto, las principales obligaciones de moderación de contenido en las grandes plataformas en línea, incluido Twitter, entrarán en vigor en virtud de la nueva legislación de la UE.

Las regulaciones, denominadas Ley de Servicios Digitales, obligarán a las empresas a ser más transparentes sobre sus algoritmos, reforzarán los procesos para bloquear la difusión de publicaciones dañinas y prohibirán la publicidad dirigida basada en datos confidenciales como la religión o la orientación sexual.

Renda dijo que el nuevo libro de reglas era "innovador". Las empresas se enfrentarían a multas de hasta el 6% de la facturación anual global si se determina que infringen la nueva legislación, e incluso se les puede prohibir operar en la Unión Europea.

Eso significa que, aunque Twitter puede eludir la última solicitud de Bruselas de marcar de inmediato imágenes o videos generados por IA, la plataforma se verá obligada a cumplir con las reglas más amplias de la UE a finales de este año.

Bruselas también está elaborando otras leyes para regular la inteligencia artificial, conocidas como la Ley AI. Según los planes, algunos usos de la IA se prohibirían por completo, como la "puntuación social" y la mayoría del reconocimiento facial en espacios públicos. Las propuestas también prevén restringir la IA en áreas consideradas de "alto riesgo", incluido el reclutamiento, donde la IA podría conducir a la discriminación, o en el transporte público.

Pero esas reglas aún se están abriendo camino a través del largo proceso legislativo de la UE y probablemente no entrarán en vigencia hasta dentro de al menos dos años. Sin mencionar el hecho de que fueron redactados antes del último auge de la IA generativa. Ahora, Bruselas se apresura a ponerse al día.

Está persiguiendo varias medidas provisionales, incluido un nuevo código de conducta de IA generativo voluntario y un "pacto de IA", en virtud del cual las empresas podrían optar por respetar las reglas futuras antes de que se apliquen por completo.

Para ver este video, habilite JavaScript y considere actualizar a un navegador web que admita video HTML5

Catelijne Muller ha estado asesorando a la Unión Europea sobre legislación de IA desde 2017 y cofundó el grupo de investigación y políticas "ALLAI". Ella le dijo a DW que, a pesar de lo que parece una lucha para seguir el ritmo, Bruselas está bien situada para regular.

"Los últimos desarrollos de los que tanto escuchamos, ChatGPT y todos los modelos generativos de IA y modelos básicos, se encuentran justo en el medio del proceso legislativo para la Ley de IA. Y caen en un momento en que los legisladores aún pueden tomarlos en cuenta". cuenta", dijo.

Muller cree que los desafíos que plantean las últimas herramientas de inteligencia artificial "no son inherentemente nuevos".

“Todavía ves los mismos problemas con el sesgo y la discriminación, todavía ves los mismos problemas con la supervisión y la agencia humana, y con los impactos en los derechos fundamentales”, dijo. Muller cree que los legisladores no necesitan "tirar por la borda lo que tenían y escribir algo completamente nuevo", sino que pueden trabajar para incorporar desarrollos en las propuestas existentes.

Editado por: Milán Gagnon