El fraude publicitario a menudo sigue el flujo de dólares publicitarios, pero los investigadores ahora sugieren que los estafadores también están siguiendo otra tendencia de la industria: la adopción de la IA generativa.
La IA generativa está ayudando a escalar esfuerzos sofisticados de fraude publicitario en plataformas publicitarias en línea en crecimiento, incluida la televisión conectada y la transmisión de audio, según un informe de DoubleVerify. El gigante de las mediciones informó que la IA generativa contribuyó al crecimiento del 23 % en nuevos esquemas de fraude en 2023, lo que llevó a un aumento del 58 % en el fraude publicitario en plataformas de transmisión. El informe, publicado el lunes, analizó 1 billón de impresiones de 2.000 marcas en 100 mercados de todo el mundo e incluye datos sobre anuncios mostrados en computadoras de escritorio, web móvil, aplicaciones móviles y plataformas de televisión conectada. Los investigadores también encontraron evidencia de un aumento del 269% en los esquemas de fraude de bots existentes, mientras que los tipos de incidentes incluyeron fraude de bots, fraude de sitios, fraude de aplicaciones, dispositivos secuestrados, tráfico de centros de datos no humanos y eventos publicitarios inyectados.
La IA generativa ha hecho que sea más fácil falsificar patrones de datos y hacer que el tráfico fraudulento parezca más humano. La proliferación de contenido generado por IA también ayuda a los estafadores a crear nuevos sitios web de empresas fantasma, publicar nuevas aplicaciones y escribir reseñas falsas. Esto ha sido especialmente clave para los casos en el espacio de las aplicaciones móviles. La IA generativa también ha ayudado a que las estafas publicitarias de CTV evolucionen tres veces más rápido en 2023 que en 2022, según Jack Smith, director de innovación de DoubleVerify. Se espera que la tendencia continúe hasta 2024 a medida que las herramientas de IA generativa se vuelvan más capaces, más ubicuas y más fáciles de usar.
“No es sólo un problema para los anunciantes, sino también para los editores”, dijo Smith a Digiday. “Porque está desviando dinero del tráfico legítimo. Entonces, si estás falsificando una aplicación conocida, básicamente estás desviando dinero del ecosistema. Tiene un efecto negativo tanto para los editores como para los anunciantes”.
Dos ejemplos de estafas que utilizan IA generativa son FM Scam y CycloneBot, según DoubleVerify, que desenmascaró ambas estafas a principios de este año. CycloneBot, una estafa centrada en CTV, es más difícil de detectar porque utiliza inteligencia artificial para crear sesiones de visualización más largas en dispositivos falsos y cuadriplica el volumen de tráfico en comparación con estafas más antiguas. Otra estafa, FM Scam, tiene como objetivo la transmisión de audio y utiliza inteligencia artificial para generar tráfico de audio falso que parece una actividad legítima del usuario en varios dispositivos y reproductores de audio. DoubleVerify estimó que la táctica se utilizó para falsificar 500.000 dispositivos en marzo de 2024 y es el primer caso que la compañía encuentra de fraude publicitario dirigido a parlantes inteligentes.
Las tácticas pueden resultar costosas para los anunciantes. DoubleVerify dijo que FM Scam es parte de un esquema más grande de fraude publicitario de audio llamado BeatSring, que se estima que desvía el tráfico que supera el millón de dólares al mes. Mientras tanto, los investigadores dicen que CycloneBot se ha utilizado para falsificar hasta 250 millones de solicitudes de publicidad y falsificar alrededor de 1,5 millones de dispositivos cada día, lo que les ha costado a los anunciantes hasta 7,5 millones de dólares al mes.
Los hallazgos se producen en un momento en que la IA está generando más preocupación por el contenido hecho para publicidad. En un informe separado, DoubleVerify dijo que la IA generativa ha llevado a un aumento de casi el 20% en el contenido MFA en línea, con un crecimiento impulsado en gran medida por impresiones MFA de nivel inferior en sitios con cualidades MFA y no MFA. Cuando DoubleVerify y Sapio Research encuestaron a 1.000 anunciantes globales, el 57% dijo que veía el contenido generado por IA como un desafío para el ecosistema digital, mientras que el 54% dijo que la IA generativa ha degradado la calidad de los medios.
Las revisiones generadas por IA pueden hacer que las aplicaciones móviles parezcan de interés para los usuarios y, al mismo tiempo, hacer que las aplicaciones dañinas parezcan más legítimas durante las investigaciones. Esto llevó a DoubleVerify a duplicar sus investigaciones sobre aplicaciones potencialmente fraudulentas durante el año pasado. Los ejemplos de Smith incluyen aplicaciones clásicas de protector de pantalla y otras, como una aplicación en la que las personas dejan el televisor encendido para sus mascotas.
¿Y cómo podrían las recientemente anunciadas herramientas de inteligencia artificial de Apple para aplicaciones móviles y Siri complicar aún más el ecosistema? Es demasiado pronto para saberlo, dijo Smith, quien anteriormente fue director global de productos de inversión en GroupM, la agencia de medios propiedad de WPP. Sin embargo, cree que dependerá de la implementación y agrega que cada esquema de fraude depende de diferentes mecanismos.
“Comenzaremos a observar cuál es el efecto de cualquier cambio en cualquier sistema operativo y cualquier conectividad o intercambio de datos entre ellos o aplicaciones falsas”, dijo Smith. “Estamos analizando todas estas cosas, pero realmente queremos ver cómo es la producción antes de decir si podría tener el potencial de hacer algo”.
La desinformación florece junto con el fraude publicitario mediante IA
Los expertos en privacidad y los investigadores de fraude publicitario dicen que no les sorprende ver que la IA generativa permite un mayor fraude publicitario. Otras organizaciones que investigan el impacto de la IA generativa en el fraude publicitario y otras cuestiones como la desinformación han seguido emitiendo advertencias sobre problemas inminentes. En NewsGuard, los investigadores han estado analizando no solo qué significa la IA generativa para el fraude publicitario, sino también cómo la publicidad en línea puede alimentar la desinformación por parte de malos actores.
“Hace más de un año dijimos que la IA se convertiría en un multiplicador de fuerzas en lo que respecta a la desinformación y la desinformación”, dijo Steven Brill, cofundador de Newsguard. “Este impresionante y completo estudio realizado por DV documenta esa amenaza con creces, al igual que los informes que hemos hecho que muestran, por ejemplo, que un agente de desinformación ruso desde Moscú es aparentemente responsable de 167 sitios web engañosos diferentes que se hacen pasar por sitios de noticias reales y promueven contenido destinado a perturbar las elecciones estadounidenses”.
Casi el 75% de los sitios web de desinformación se basaban en publicidad, según un estudio recientemente publicado por investigadores de Newsguard, la Universidad de Stanford y Carnegie Mellon. Los hallazgos, publicados la semana pasada en la revista Nature, también encontraron que entre el 46% y el 82% de los anunciantes comunes sin darse cuenta publicaron anuncios en sitios de desinformación. Los investigadores aconsejaron abordar el problema con plataformas en línea que aumenten la transparencia de los anuncios, pero eso es algo que los anunciantes y los consumidores llevan años solicitando sin mucho progreso.
DoubleVerify dice que sus propios sistemas de inteligencia artificial lo ayudan a detectar esquemas de fraude publicitario, pero otros dudan de que haya una solución infalible. Las empresas de medición también se han enfrentado recientemente a un mayor escrutinio por conflictos de intereses cuando se trata de recibir pagos de las mismas empresas que miden y califican. Combatir la IA dañina con “IA buena” también es una “falsa promesa irresponsable”, dijo Arielle García, directora de inteligencia de Check My Ads, una organización de vigilancia sin fines de lucro.
También citó una controversia reciente después de que DoubleVerify le dio a X una seguridad de marca del 99,99% y “fallos repetidos para detectar o actuar sobre tráfico no válido”, como el subdominio MFA operado por Forbes.
“Con GenAI, los sitios web basura que a DV se le paga por monitorear son infinitos, por lo que uno puede imaginarlos a ellos y a otros proveedores de verificación externos heredados salivando ante la oportunidad”, dijo García, quien anteriormente fue director de privacidad en Universal McCann. “Si DV pusiera tanto esfuerzo en su producto como lo hizo en estos estudios de argumentos de venta, en realidad podrían tener una propuesta de valor”.
Con información de Digiday
Leer la nota Completa > Informe de DoubleVerify: Los esquemas de fraude publicitario que utilizan IA generativa aumentarán en escala y sofisticación