A pocos días de las elecciones estadounidenses, la desinformación política generada por la IA continúa llenando de humo las plataformas en línea.

Los informes de esta semana revelan un caos cada vez mayor debido al contenido de IA y no IA en plataformas como Meta y X. La BBC informó que X está pagando a algunos usuarios miles de dólares para compartir información política errónea, incluidas imágenes de IA sobre Donald Trump y Kamala Harris. Mientras tanto, The Wall Street Journal señaló que el algoritmo de X está llenando feeds con contenido político no deseado, mientras que Wired descubrió que Meta está generando automáticamente grupos de Facebook para las milicias que se organizan antes del día de las elecciones. Y apenas el mes pasado, funcionarios de inteligencia estadounidenses advirtieron que Rusia e Irán están intentando influir en las elecciones mediante el uso de inteligencia artificial en las redes sociales y artículos de noticias falsos.

Por supuesto, la IA representa sólo una porción del pastel general de la desinformación política. A principios de esta semana, Digiday encontró numerosos ejemplos de anunciantes políticos en Meta difundiendo información errónea relacionada con las elecciones. Según la Biblioteca Meta Ads, algunas páginas de Facebook han gastado decenas de miles de dólares en contenido sobre teorías de conspiración de derecha, y una página gastó más de un millón de dólares en anuncios políticos durante el último mes sin ninguna afiliación oficial a ninguna campaña.

A mediados de octubre, una encuesta realizada por la organización sin fines de lucro Americans for Responsible Innovation (ARI) encontró que el 55% de los 2.000 votantes encuestados dijeron que habían estado expuestos a información errónea generada por IA en este ciclo electoral. Cuando se les preguntó sobre su impacto, el 35% de los encuestados dijo que la IA había tenido un impacto negativo, el 17% dijo que no había tenido un impacto sustancial y el 9% dijo que había tenido un impacto positivo.

Para combatir estas preocupaciones, más de una docena de estados han aprobado leyes que exigen que las campañas políticas revelen cuándo utilizan IA en publicidad. Sin embargo, el impacto de las nuevas leyes aún no está claro. Un estudio reciente de la Universidad de Nueva York también exploró cómo las revelaciones de IA en anuncios políticos afectaron las percepciones de los votantes sobre los candidatos.

Con IA o no, los anuncios políticos con información errónea se están acumulando. Una nueva investigación realizada esta semana por Propublica informó haber encontrado 160.000 anuncios engañosos sobre temas políticos y sociales en más de 340 páginas de Facebook. Según otro análisis reciente publicado por la Universidad de Syracuse, se estima que se gastaron 5 millones de dólares en anuncios que son posibles estafas, o aproximadamente el 4% del gasto publicitario total de organizaciones externas. A pesar de todo el gasto, otros expertos creen que es posible que los temores sobre la desinformación política sean exagerados.

La IA ha provocado una “crisis de fe” en las instituciones y la información, dijo a Digiday el director ejecutivo de ARI, Brad Carson, y agregó que la desinformación ha provocado una “contaminación de la cultura”. Carson, un ex congresista que ahora también es presidente de la Universidad de Tulsa, también señaló que pueden ser útiles medidas de seguridad razonables en áreas como las revelaciones de IA. Pero puede ser difícil aprobarlos.

“Felicitamos a los estados y al gobierno federal para que intenten impulsar leyes que permitan etiquetar claramente las imágenes sintéticas o, en algunos casos, incluso prohibirlas”, dijo Carson. “Pero no hay mejor solución que la alfabetización. Los votantes deben comprender cómo la IA está permeando las campañas electorales y, de hecho, permeando la cultura en general”.

Incluso si las imágenes y los vídeos de IA no persuaden a alguien a cambiar su voto, algunos dicen que el impacto más probable se refiere a cómo la desinformación de la IA podría influir en la participación electoral. Eso también es algo que se detalla en un informe de investigadores de la Universidad de Texas-Austin, que mencionó los riesgos potenciales de los mensajes hiperdirigidos y las llamadas automáticas con información falsa sobre los candidatos o los lugares de votación.

Detectar y etiquetar contenido de IA a nivel de plataforma podría ayudar a prevenir la distribución de contenido dañino, dijo Lucas Hansen, fundador de CivAI, una organización sin fines de lucro centrada en la educación sobre IA. Algunas empresas como Meta y Google han comenzado a etiquetar el contenido de IA. Hansen dijo que la detección probablemente será más difícil con el tiempo, pero también podría volverse más costosa, monetaria y políticamente. Otra preocupación en este momento es el uso de contenido de inteligencia artificial de baja calidad para “enfurecer” a la gente sobre la política.

“Conseguir que la gente cambie de opinión es bastante difícil en este entorno, pero lograr que la gente no vaya a votar es mucho más plausible”, dijo Hansen. “Uno de los grandes efectos del contenido creado por IA, al menos en este momento, es enojar mucho a la gente. Creo que eso es increíblemente perjudicial para la sociedad”.

Avisos y productos: noticias y anuncios sobre IA

  • La IA impulsó otro trimestre más, ya que Google, Snap, Reddit, Meta y otros informaron resultados del tercer trimestre.
  • Una nueva startup llamada Trainspot lanzó un mercado de datos de IA para ayudar a los creadores de contenido a monetizar su propiedad intelectual para la capacitación en IA y, al mismo tiempo, brindar a los desarrolladores y empresas una forma de obtener datos de capacitación con licencia.
  • OpenAI lanzó una nueva función de búsqueda web en ChatGPT que proporciona enlaces relevantes a sitios web de origen.
  • El rival de ChatGPT, Perplexity, estrenó una nueva tienda de productos con camisetas, pegatinas e incluso una gorra de béisbol de “sabelo todo”.
  • Anthropic anunció una nueva aplicación de escritorio para su chatbot Claude.
  • Apple lanzó su nueva plataforma Apple Intelligence con varias funciones de IA generativa en herramientas de voz, texto e imagen. (La compañía también presentó nuevos anuncios para su plataforma de inteligencia artificial).
  • El fundador de LinkedIn, Reid Hoffman, está creando una nueva clase de IA para ejecutivos en colaboración con Wharton School.
  • Google Deepmind introdujo nuevas formas de crear contenido de audio utilizando IA generativa.
  • La agencia de influencia de IA BEN adquirió la empresa de tecnología alemana Cataneo para ampliar el alcance de los medios.

https://digiday.com/?p=559602

Con información de Digiday

Leer la nota Completa > Informe de AI: Crecen las preocupaciones sobre la desinformación en vísperas de las elecciones estadounidenses

LEAVE A REPLY

Please enter your comment!
Please enter your name here