A dos meses de las elecciones presidenciales de Estados Unidos, los funcionarios estatales y federales están buscando más formas de abordar los riesgos de la desinformación proveniente de la IA y otras fuentes.
La semana pasada, la Asamblea de California aprobó una legislación para mejorar la transparencia y la rendición de cuentas con nuevas reglas para el contenido generado por IA, incluido el acceso a herramientas de detección y nuevos requisitos de divulgación. Si se firma, la Ley de Transparencia de la IA de California no entraría en vigor hasta 2026, pero es el último de una serie de esfuerzos de varios estados para comenzar a abordar los riesgos de la creación y distribución de contenido generado por IA.
“Es crucial que los consumidores tengan derecho a saber si un producto ha sido generado por IA”, dijo en un comunicado el senador del estado de California, Josh Becker, patrocinador del proyecto de ley. “En mis conversaciones con expertos, quedó cada vez más claro que la capacidad de distribuir contenido de alta calidad creado por IA generativa genera preocupaciones sobre su posible uso indebido. Las imágenes, el audio y el vídeo generados por IA podrían utilizarse para difundir información política errónea y crear deepfakes”.
Más de una docena de estados han aprobado leyes que regulan el uso de IA en anuncios políticos, y al menos una docena de proyectos de ley más están en marcha en otros estados. Algunos, incluidos Nueva York, Florida y Wisconsin, exigen que los anuncios políticos incluyan divulgaciones si están elaborados con IA. Otros, como Minnesota, Arizona y Washington, exigen descargos de responsabilidad de AI dentro de un período determinado antes de una elección. Y otros, incluidos Alabama y Texas, tienen prohibiciones más amplias de mensajes políticos engañosos, independientemente de si se utiliza o no IA.
Algunos estados cuentan con equipos para detectar y abordar la información errónea procedente de la IA y otras fuentes. En el estado de Washington, la oficina del secretario de estado cuenta con un equipo para escanear las redes sociales en busca de información errónea, según el secretario de estado Steve Hobbs. El estado también está llevando a cabo una importante campaña de marketing para educar a la gente sobre cómo funcionan las elecciones y dónde encontrar información confiable.
En una entrevista de agosto con Digiday, Hobbs dijo que la campaña incluirá información sobre deepfakes y otra información errónea generada por IA para ayudar a las personas a comprender los riesgos. Dijo que su oficina también está trabajando con socios externos como la startup Logicically para rastrear narrativas falsas y abordarlas antes de que alcancen una masa crítica.
“Cuando se trata de un Estado nación que tiene todos esos recursos, parecerá convincente, realmente convincente”, dijo Hobbs. “No seas el robot de Putin. Eso es lo que termina pasando. Recibes un mensaje, lo compartes. ¿Adivina qué? Eres el robot de Putin”.
Después de que el chatbot Grok AI de X compartiera información electoral falsa con millones de usuarios, Hobbs y otros cuatro secretarios de estado enviaron una carta abierta a Elon Musk el mes pasado pidiendo cambios inmediatos. También le pidieron a X que Grok enviara a los usuarios al sitio web de información electoral no partidista, CanIVote.org, que es un cambio que OpenAI ya realizó para ChatGPT.
Los deepfakes de IA parecen estar en aumento a nivel mundial. Los casos en Japón se duplicaron en el primer trimestre de 2024, según Nikkei, con estafas que van desde correos electrónicos de phishing basados en texto hasta videos de redes sociales que muestran imágenes de transmisión manipuladas. Mientras tanto, la firma británica de análisis Elliptic encontró ejemplos de estafas generadas por IA relacionadas políticamente y dirigidas a usuarios de criptomonedas.
Nuevas herramientas de inteligencia artificial para identificar deepfakes
Las empresas de ciberseguridad también han lanzado nuevas herramientas para ayudar a los consumidores y las empresas a detectar mejor el contenido generado por IA. Uno es de Pindrop, que ayudó a detectar las llamadas automáticas generadas por IA que se asemejan al presidente Joe Biden durante las primarias de New Hampshire. El nuevo Pulse Inspect de Pindrop, lanzado a mediados de agosto, permite a los usuarios cargar audio para detectar si se utilizó audio sintético y en qué parte de un archivo se detectó.
Los primeros en adoptar Pulse Inspect incluyen YouMail, un servicio de bloqueo de correo de voz visual y Robocall; TrueMedia, una organización no partidista sin fines de lucro centrada en combatir la desinformación sobre IA; y la plataforma de creación de audio con IA Respeecher.
Otras herramientas nuevas incluyen una de Attestiv, que lanzó una versión gratuita el mes pasado para consumidores y empresas. Otro proviene de McAfee, que la semana pasada anunció una asociación con Lenovo para integrar la herramienta Deepfake Detector de McAfee en las nuevas PC con inteligencia artificial de Lenovo que utilizan la plataforma Copilot de Microsoft.
Según Steve Grobman, CTO de McAfee, la herramienta ayuda a las personas a analizar contenido de video y audio en tiempo real en la mayoría de las plataformas, incluidas YouTube, X, Facebook e Instagram. El objetivo es brindar a las personas una herramienta para “ayudar al usuario a escuchar cosas que podrían resultarles difíciles de escuchar”, dijo Grobman a Digiday, y agregó que es especialmente importante ya que los consumidores se preocupan por la desinformación durante la temporada política.
“Si el video está marcado, colocaremos uno de estos pequeños carteles, ‘Audio de IA detectado'”, dijo Grobman. “Y si haces clic en él, podrás obtener más información. Básicamente, luego mostraremos un gráfico de en qué parte del video comenzamos a detectar la IA y mostraremos algunas estadísticas”.
En lugar de cargar clips a la nube, el análisis en el dispositivo mejora la velocidad, la privacidad del usuario y el ancho de banda, añadió Grobman. El software también se puede actualizar a medida que los modelos de McAfee mejoren y el contenido de IA evolucione para evadir la detección. McAfee también presentó un nuevo recurso en línea llamado Smart AI Hub, cuyo objetivo es educar a las personas sobre la información errónea sobre la IA y, al mismo tiempo, recopilar ejemplos de deepfakes de origen público.
Según la encuesta de consumidores de McAfee a principios de este año sobre las preocupaciones sobre las falsificaciones de IA, el 43% de los consumidores estadounidenses mencionaron las elecciones, el 37% estaba preocupado de que la IA socavara la confianza del público en los medios y el 56% estaba preocupado por las estafas facilitadas por la IA.
Avisos y productos: noticias y anuncios sobre IA
- Google agregó nuevas funciones de inteligencia artificial generativa para los anunciantes, incluidas herramientas para anuncios de compras. Mientras tanto, la consultora de investigación Authoritas descubrió que la función AI Overviews de Google ya está impactando la visibilidad de búsqueda de los editores.
- Meta dijo que sus modelos Llama AI han tenido un crecimiento 10 veces mayor desde 2023, con descargas totales cercanas a los 350 millones y 20 millones solo el mes pasado. Ejemplos de empresas que utilizan Llama incluyen AT&T, Spotify, Niantic, DoorDash y Shopify.
- Según Wired, los principales editores y plataformas están optando por no participar en los esfuerzos de extracción de IA de Apple.
- Adobe lanzó una nueva función Workfront para ayudar a los especialistas en marketing a planificar campañas.
- Yelp presentó una nueva demanda antimonopolio contra Google, que afirma que Google utiliza sus propias herramientas de inteligencia artificial para darle aún más ventaja.
- El representante estadounidense Jim Jordan citó a la empresa de publicidad política AI Authentic, que casualmente emplea a la hija del juez que supervisó el juicio por dinero secreto de Donald Trump. El fundador de la startup criticó la medida de Jordan como un “abuso de poder” que promueve una “teoría de conspiración de derecha infundada”.
- Según se informa, Apple y Nvidia están en conversaciones para invertir en OpenAI, que supuestamente está recaudando más financiación. Nvidia también informó sus ganancias trimestrales la semana pasada, y la publicidad se mencionó como una de las industrias que impulsa la demanda.
- Anthropic publicó una lista de las indicaciones de su sistema para su familia de modelos Claude con el objetivo de brindar más transparencia a usuarios e investigadores.
Preguntas y respuestas con el secretario de Estado de Washington, Steve Hobbs
En una entrevista de agosto con Digiday, el secretario de Estado de Washington, Steve Hobbs, habló sobre una nueva campaña para promover la confianza de los votantes. También habló sobre algunos de los otros esfuerzos en marcha, incluido cómo el estado está utilizando la IA para combatir la desinformación, por qué quiere regular aún más el contenido de la IA y la importancia de que los votantes sepan dónde encontrar información precisa para verificar los hechos. Aquí hay algunos extractos de la conversación.
Cómo Washington utiliza la IA para rastrear la desinformación
“Sólo estamos informando a la gente sobre la verdad sobre las elecciones. También utilizamos Logically AI para encontrar amenazas contra los trabajadores electorales. Entonces he recibido una amenaza contra mí. Hemos entregado a un actor extranjero potencial, un actor Estado-nación que estaba operando y difundiendo desinformación. Entonces es una herramienta que debemos tener. Sé que hay críticas al respecto, pero mi alternativa es contratar a 100 personas para que miren Internet o las redes sociales, o esperar a que la narrativa alcance una masa crítica. Y para entonces ya será demasiado tarde”.
Sobre la regulación de las plataformas y el contenido de la IA
“Las plataformas de redes sociales deben ser responsables. Necesitan saber de dónde viene su dinero. ¿Quién es esta persona que me da dinero para publicar este anuncio? ¿Y es esto una profunda falsificación? No sé si se van a enterar. Hay una responsabilidad ahí. Realmente necesitan dar un paso al frente para jugar. Espero que el gobierno federal apruebe un proyecto de ley para responsabilizarlos”.
Por qué los votantes deberían verificar todo
“Cuando se trata de las redes sociales y las noticias que recibes de las redes sociales, haz una pausa. Verifica quién es esta persona. ¿Es un robot? ¿Es una persona real y la información que obtienes es verificable? ¿Puedes verlo en otras fuentes de noticias? ¿Está respaldado por otras fuentes? [Americans] son el objetivo número uno de los actores estatales-nación. Quieren que tomes su información y la compartas inmediatamente, la difundas inmediatamente… No seas un objetivo”.
Otras historias relacionadas con la IA de todo Digiday
Con información de Digiday
Leer la nota Completa > Informe sobre IA: Cómo los gobiernos estatales y las empresas están abordando los deepfakes de IA