Un nuevo informe de Adalytics hace que los anunciantes y los expertos en seguridad de marca hagan nuevas preguntas sobre la eficacia de los sistemas de inteligencia artificial.
El Ășltimo informe del organismo de control digital, publicado hoy, afirma haber encontrado cientos de marcas que aparecen junto a contenido inseguro en sitios web de contenido generado por el usuario (CGU), como pĂĄginas wiki de Fandom y otros sitios web. Muchos de los anuncios tienen cĂłdigo para utilizar tecnologĂa de seguridad de marca de proveedores como DoubleVerify e Integral Ad Science. SegĂșn un borrador del informe revisado por Digiday, la idea de la investigaciĂłn surgiĂł despuĂ©s de que el jefe global de medios de una marca multinacional pidiera a Adalytics que revisara la ubicaciĂłn de sus anuncios para garantizar la seguridad de la marca.
A medida que las principales empresas de seguridad de marca dependen mĂĄs de la IA para erradicar o prevenir violaciones de seguridad de marca, los anunciantes, agencias y otros expertos en seguridad de marca dicen que el informe plantea nuevas preguntas sobre si la tecnologĂa estĂĄ funcionando como deberĂa o no. TambiĂ©n plantea nuevas preocupaciones sobre su eficacia y si es necesaria una mayor transparencia sobre cĂłmo funcionan los sistemas de IA.
SegĂșn mĂĄs de una docena de fuentes, incluidos clientes actuales de IAS y DoubleVerify que revisaron el informe, la sensaciĂłn es que esas empresas parecen prometer demasiado y no cumplir lo suficiente. Los ejemplos del informe no se alinean con los estĂĄndares de seguridad de marca de sus marcas, dijeron varias fuentes. Incluso si las pĂĄginas son de nicho o generan poco trĂĄfico, las fuentes sugieren que es un sĂntoma de problemas mĂĄs amplios.
Los anunciantes ya especulaban que los sistemas de inteligencia artificial no habĂan sido tan efectivos como se los retrataba, pero aĂșn asĂ se sorprendieron al ver que incluso objetivos fĂĄcilmente identificables, como diversos usos de insultos raciales y referencias sexuales en titulares y URL, se escapaban de las grietas.
Fuentes de marcas y agencias dijeron que las herramientas tecnolĂłgicas previas a la oferta señaladas en el informe fueron presentadas como capaces de proporcionar anĂĄlisis en tiempo real del contenido a nivel de pĂĄgina. Una fuente que describiĂł los hallazgos como “bastante condenatorios” dijo que tenĂan la impresiĂłn de que las etiquetas envolventes para el bloqueo posterior a la oferta estaban destinadas a mantener seguras las marcas.
Las fuentes tambiĂ©n estaban desconcertadas por las inconsistencias en la forma en que las herramientas de inteligencia artificial de las empresas de seguridad de marca clasificaban las pĂĄginas web segĂșn los riesgos. El informe de Adalytics mostrĂł pĂĄginas wiki con contenido racista, violento o sexual etiquetadas como de bajo riesgo, mientras que las pĂĄginas de The Washington Post y Reuters fueron marcadas como de riesgo medio o alto a pesar de carecer de dicho contenido.
La mayorĂa de las fuentes contactadas para esta historia tenĂan la misma pregunta: ÂżLa tecnologĂa no funciona como deberĂa o se ha presentado como algo mejor de lo que los sistemas son capaces de ofrecer actualmente?
El informe parece indicar que las herramientas de inteligencia artificial no ayudan con la seguridad de la marca tan bien como lo describen las empresas, dijeron fuentes a Digiday. Uno señalĂł que funciona lo suficientemente bien como para “darle a la gente la suficiente reducciĂłn del malestar”. Sin embargo, los hallazgos ahora los hacen preguntarse si vale la pena gastar el gasto, que puede ascender a millones por marca.
“La seguridad de la marca es una broma, y ââlas Ășnicas personas que no participan en ella son las marcas que pagan por ella”, dijo una fuente. “Somos una industria delirante porque creemos que podemos crear herramientas lo suficientemente rĂĄpido para solucionar nuestros problemas”.
Jay Friedman, director ejecutivo de Goodway Group, dijo que el volumen y la gravedad de los ejemplos sugieren que la tecnologĂa de seguridad de marca no protege a las marcas lo suficiente como para que valga la pena el tiempo y el dinero que cuestan. Al igual que otras agencias, marcas y expertos en tecnologĂa, dijo que se necesita mĂĄs transparencia para ayudar a todos a comprender el problema y encontrar una mejor soluciĂłn. Eso incluye informes mĂĄs completos sobre cada faceta de una campaña para que todos puedan tomar decisiones a partir de los mismos datos.
“El viejo argumento de ‘No podemos decirle cĂłmo funciona porque entonces los malos tambiĂ©n lo sabrĂan’ probablemente ya no sea un argumento vĂĄlido”, dijo Friedman. “Estos proveedores cobran a los anunciantes miles de millones de dĂłlares al año y les deben a los clientes que pagan proporcionar tecnologĂa que funcione con transparencia sobre cĂłmo funciona”.
IAS declinĂł hacer comentarios hasta que haya visto el informe completo.
DoubleVerify emitiĂł un comunicado acusando a Adalytics de buscar sus resultados buscando selectivamente tĂ©rminos problemĂĄticos sin el contexto adecuado. TambiĂ©n dijo que el informe omite informaciĂłn crucial sobre la configuraciĂłn para evitar la oferta antes y despuĂ©s de la oferta y correlaciona incorrectamente el cĂłdigo con las acciones de los anunciantes. DoubleVerify tambiĂ©n dijo que el informe no distingue entre los servicios de editor y anunciante de DV, lo que, segĂșn afirma, contribuyĂł a estas imprecisiones. Sin embargo, fuentes externas le dijeron a Digiday que el informe refleja con precisiĂłn las etiquetas tanto del editor como del anunciante.
DoubleVerify tambiĂ©n dijo que los anunciantes pueden optar por ejecutar campañas de editores basadas en listas de excepciones, lo que anularĂa las categorĂas de evitaciĂłn de contenido. Sin embargo, un experto en seguridad de marca se preguntĂł si los anunciantes conocen estas configuraciones.
“Esto habla de una cuestiĂłn mĂĄs amplia: los resultados de este informe son totalmente inventados, desde la omisiĂłn de informaciĂłn sobre la configuraciĂłn de la campaña del cliente hasta la metodologĂa misma, donde el investigador buscĂł arbitrariamente tĂ©rminos racistas”, segĂșn la declaraciĂłn de DoubleVerify. âLos resultados estĂĄn manipulados y carecen de validez o escala orgĂĄnica. Para ser claros, ningĂșn cliente ha expresado inquietudes sobre la precisiĂłn de nuestras categorĂas de contenido. El propio anĂĄlisis preliminar de DV confirma que todo el contenido compartido con nosotros se clasificĂł con precisiĂłn para clientes y sociosâ.
Cuando se le pidiĂł una declaraciĂłn, un portavoz de Fandom dijo que la compañĂa aĂșn no habĂa visto el informe completo de Adalytics. Sin embargo, el portavoz dijo que los pocos ejemplos de capturas de pantalla que habĂan visto “identifican un problema en toda la industria”, pero tambiĂ©n señalĂł que los ejemplos incluĂan contenido de “wikis antiguos con un trĂĄfico extremadamente bajo, razĂłn por la cual no se marcĂł a travĂ©s de nuestros sistemas de moderaciĂłn actuales o de Google”. Ad Server, los cuales monitorean nuestros wikis activosâ.
Fandom, uno de los sitios de Internet mĂĄs grandes con 50 millones de pĂĄginas de contenido generado por usuarios, dijo que menos del 0,08% del contenido ha sido marcado como inapropiado, lo que, segĂșn dijo, incluye en su mayorĂa banderas falsas. TambiĂ©n emplea mĂșltiples medidas de seguridad, incluidos tres proveedores de la industria y un “sĂłlido equipo interno de confianza y seguridad que verifica y elimina manualmente todo el contenido adicional marcado lo mĂĄs rĂĄpido posible”.
“No toleramos la publicaciĂłn de material inapropiado y racialmente insensible en ninguna parte de nuestra plataforma UGC; este contenido no estĂĄ permitido segĂșn nuestras pautas y no serĂĄ tolerado”, segĂșn la declaraciĂłn de Fandom. âGarantizar la seguridad de la marca en nuestra plataforma es de suma importancia para nosotros y nos tomamos asuntos como este muy en serio. ⊠A pesar de que estos ejemplos limitados no fueron un problema a escala, hemos agregado medidas de seguridad adicionales para desactivar proactivamente los anuncios en wikis con poco trĂĄfico que no activan los umbrales de marcaâ.
Los anunciantes dicen que los problemas con las pĂĄginas UCG justifican brindarles informes mĂĄs granulares para que puedan verificar las pĂĄginas a nivel de URL en lugar de simplemente recibir informes a nivel de dominio. Una fuente de la marca dijo que vale la pena considerar cambios en el modelo econĂłmico de seguridad de la marca. En lugar de pagar por el uso de la tecnologĂa previa a la oferta, sugirieron tal vez pagar cada vez que se bloquea algo, pero reconocieron que eso tambiĂ©n podrĂa sentar otros malos precedentes.
Las fuentes dijeron que no han recibido respuestas sobre la precisión de los sistemas de inteligencia artificial de seguridad de la marca. Han preguntado sobre los tamaños de muestra del anålisis a nivel de pågina para comprender mejor si se basa en una escala pequeña o en Internet completo. Sin embargo, dicen que no han recibido respuestas adecuadas.
âÂżEs el 99% de [a small number] de los sitios web que visita, o el 99% de los otros 4 mil millones de sitios web que visita? dijo una fuente de un anunciante de gran marca. “Si es lo primero, entonces el 99% no es la cifra real”.
Rastrear constantemente la web es un proceso complicado, señalĂł Joseph Turow, profesor de Industrias y Sistemas de Medios en la Escuela de ComunicaciĂłn Annenberg de la Universidad de Pensilvania. Turow y otros acadĂ©micos se preguntaron con quĂ© frecuencia los robots rastrean continuamente y descubren problemas o miran pĂĄginas antes de pujar por anuncios. Si las empresas pueden realizar una orientaciĂłn contextual con IA, tambiĂ©n deberĂan poder mejorar la seguridad contextual de la marca en tiempo real. Sin embargo, si bien bloquear malas palabras no es difĂcil por sĂ solo, dijo que la velocidad requerida para analizar cada pĂĄgina en nanosegundos antes de las ofertas publicitarias es otro nivel de desafĂo.
“Me pregunto si serĂĄ una tonterĂa”, dijo Turow. “Es terriblemente desagradable, pero me pregunto si realmente es posible hacer esto de una manera que funcione al 100%”.
Con informaciĂłn de Digiday
Leer la nota Completa > El nuevo informe de Adalytics plantea nuevas preguntas sobre el uso de sistemas de inteligencia artificial para la seguridad de la marca