Casi dos docenas de empresas de tecnología están asumiendo más compromisos para abordar el contenido dañino de IA relacionado con las elecciones globales.
Con votaciones previstas en más de 40 países este año, los principales proveedores de IA y plataformas en línea han elaborado un nuevo acuerdo para detectar y prevenir la información errónea generada por la IA. El acuerdo, “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”, se anunció hoy en la Conferencia de Seguridad de Munich e incluye ocho compromisos relacionados con imágenes, audio y video generados por IA.
Los gigantes de la tecnología publicitaria se han comprometido a colaborar, incluidos Google, Meta, Adobe, IBM, Amazon y Microsoft, al igual que las nuevas empresas de inteligencia artificial como OpenAI, Anthropic and Stability AI e Inflection AI. El acuerdo también cuenta con signatarios de las principales plataformas sociales, incluidas Snap, LinkedIn, TikTok y X. Otra startup de inteligencia artificial notable es ElevenLabs, que, según los expertos, se utilizó para crear un audio falso relacionado con las elecciones que se asemeja a la voz del presidente Joe Biden.
Los compromisos son en su mayoría simbólicos y no incluyen herramientas de rendición de cuentas. Sin embargo, los expertos ven los esfuerzos como un paso hacia abordar la naturaleza global del contenido problemático de IA. El acuerdo también llega una semana después de que Meta, OpenAI y Google anunciaran planes para comenzar a etiquetar contenido generado por IA utilizando los estándares establecidos por la Coalición para la Procedencia y Autenticidad del Contenido (C2PA).
“Las elecciones son el corazón palpitante de las democracias”, dijo Christopher Heusgen, presidente de la Conferencia de Seguridad de Munich, en una declaración sobre el acuerdo. “El Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las elecciones de 2024 es un paso crucial para promover la integridad electoral, aumentar la resiliencia de la sociedad y crear prácticas tecnológicas confiables”.
Los nuevos compromisos incluyen el desarrollo e implementación de herramientas para combatir la desinformación electoral, la evaluación de modelos de inteligencia artificial para comprender los riesgos, la detección y el tratamiento de contenidos dañinos en diversas plataformas. Las empresas también se comprometen a ser transparentes sobre cómo abordan los problemas, así como a trabajar con gobiernos y académicos y fomentar la conciencia pública y la alfabetización mediática.
Josh Lawson, director de esfuerzos electorales de IA en el Instituto Aspen, dijo que el acuerdo es “un paso positivo en un maratón mucho más largo contra la manipulación cívica”. Sin embargo, también señaló que el alcance del acuerdo se centra únicamente en los medios, pero no aborda las preocupaciones sobre el texto generado por IA.
“Este es un compromiso de no quedarse sentado en metadatos”, dijo. “Esto no se aplica si se utiliza un modelo con jailbreak o de código abierto que no incorpora C2PA. No es un compromiso etiquetar eso”.
La empresa de ciberseguridad McAfee también se encuentra entre los firmantes. El mes pasado, la compañía presentó una nueva herramienta de detección de IA llamada Project Mockingbird que analiza videos en busca de estafas de audio generadas por IA u otro contenido dañino. Durante una demostración con Digiday el mes pasado, el CTO de McAfee, Steve Grobman, dijo que es vital crear herramientas integrales y al mismo tiempo educar a los consumidores para mejorar la alfabetización en IA.
“Si les envío una imagen de un candidato político haciendo algo, la gente en 2024 entenderá que esa imagen podría no ser auténtica”, dijo Grobman. “Incluso el término ‘photoshopeado’ es un verbo, ¿verdad? Necesitamos un escepticismo un poco más saludable, donde si ves a un candidato político en un video o en un audio, hagas una pausa y no solo aproveches las herramientas sino también mires la reputación del cartel”.
La confianza requiere transparencia, dijo Dana Rao, asesora general y directora de confianza de Adobe. En una declaración sobre el acuerdo, Rao dijo que los esfuerzos son importantes para construir “la infraestructura que necesitamos para proporcionar contexto al contenido que los consumidores ven en línea”. Adobe también es una de las empresas del comité directivo del C2PA junto con Google, Publicis Groupe, la BBC y otros.
“Con las elecciones que se celebrarán en todo el mundo este año, debemos invertir en campañas de alfabetización mediática para garantizar que la gente sepa que no pueden confiar en todo lo que ven y oyen en línea, y que existen herramientas para ayudarles a comprender lo que es verdad”, Rao dicho.
Con información de Digiday
Leer la nota Completa > Las empresas tecnológicas se comprometen más a abordar la desinformación electoral generada por la IA