Un nuevo informe de Adalytics hace que los anunciantes y los expertos en seguridad de marca hagan nuevas preguntas sobre la eficacia de los sistemas de inteligencia artificial.

El Ășltimo informe del organismo de control digital, publicado hoy, afirma haber encontrado cientos de marcas que aparecen junto a contenido inseguro en sitios web de contenido generado por el usuario (CGU), como pĂĄginas wiki de Fandom y otros sitios web. Muchos de los anuncios tienen cĂłdigo para utilizar tecnologĂ­a de seguridad de marca de proveedores como DoubleVerify e Integral Ad Science. SegĂșn un borrador del informe revisado por Digiday, la idea de la investigaciĂłn surgiĂł despuĂ©s de que el jefe global de medios de una marca multinacional pidiera a Adalytics que revisara la ubicaciĂłn de sus anuncios para garantizar la seguridad de la marca.

A medida que las principales empresas de seguridad de marca dependen mås de la IA para erradicar o prevenir violaciones de seguridad de marca, los anunciantes, agencias y otros expertos en seguridad de marca dicen que el informe plantea nuevas preguntas sobre si la tecnología estå funcionando como debería o no. También plantea nuevas preocupaciones sobre su eficacia y si es necesaria una mayor transparencia sobre cómo funcionan los sistemas de IA.

SegĂșn mĂĄs de una docena de fuentes, incluidos clientes actuales de IAS y DoubleVerify que revisaron el informe, la sensaciĂłn es que esas empresas parecen prometer demasiado y no cumplir lo suficiente. Los ejemplos del informe no se alinean con los estĂĄndares de seguridad de marca de sus marcas, dijeron varias fuentes. Incluso si las pĂĄginas son de nicho o generan poco trĂĄfico, las fuentes sugieren que es un sĂ­ntoma de problemas mĂĄs amplios.

Los anunciantes ya especulaban que los sistemas de inteligencia artificial no habĂ­an sido tan efectivos como se los retrataba, pero aĂșn asĂ­ se sorprendieron al ver que incluso objetivos fĂĄcilmente identificables, como diversos usos de insultos raciales y referencias sexuales en titulares y URL, se escapaban de las grietas.

Fuentes de marcas y agencias dijeron que las herramientas tecnolĂłgicas previas a la oferta señaladas en el informe fueron presentadas como capaces de proporcionar anĂĄlisis en tiempo real del contenido a nivel de pĂĄgina. Una fuente que describiĂł los hallazgos como “bastante condenatorios” dijo que tenĂ­an la impresiĂłn de que las etiquetas envolventes para el bloqueo posterior a la oferta estaban destinadas a mantener seguras las marcas.

Las fuentes tambiĂ©n estaban desconcertadas por las inconsistencias en la forma en que las herramientas de inteligencia artificial de las empresas de seguridad de marca clasificaban las pĂĄginas web segĂșn los riesgos. El informe de Adalytics mostrĂł pĂĄginas wiki con contenido racista, violento o sexual etiquetadas como de bajo riesgo, mientras que las pĂĄginas de The Washington Post y Reuters fueron marcadas como de riesgo medio o alto a pesar de carecer de dicho contenido.

La mayorĂ­a de las fuentes contactadas para esta historia tenĂ­an la misma pregunta: ÂżLa tecnologĂ­a no funciona como deberĂ­a o se ha presentado como algo mejor de lo que los sistemas son capaces de ofrecer actualmente?

El informe parece indicar que las herramientas de inteligencia artificial no ayudan con la seguridad de la marca tan bien como lo describen las empresas, dijeron fuentes a Digiday. Uno señalĂł que funciona lo suficientemente bien como para “darle a la gente la suficiente reducciĂłn del malestar”. Sin embargo, los hallazgos ahora los hacen preguntarse si vale la pena gastar el gasto, que puede ascender a millones por marca.

“La seguridad de la marca es una broma, y ​​las Ășnicas personas que no participan en ella son las marcas que pagan por ella”, dijo una fuente. “Somos una industria delirante porque creemos que podemos crear herramientas lo suficientemente rĂĄpido para solucionar nuestros problemas”.

Jay Friedman, director ejecutivo de Goodway Group, dijo que el volumen y la gravedad de los ejemplos sugieren que la tecnología de seguridad de marca no protege a las marcas lo suficiente como para que valga la pena el tiempo y el dinero que cuestan. Al igual que otras agencias, marcas y expertos en tecnología, dijo que se necesita mås transparencia para ayudar a todos a comprender el problema y encontrar una mejor solución. Eso incluye informes mås completos sobre cada faceta de una campaña para que todos puedan tomar decisiones a partir de los mismos datos.

“El viejo argumento de ‘No podemos decirle cĂłmo funciona porque entonces los malos tambiĂ©n lo sabrĂ­an’ probablemente ya no sea un argumento vĂĄlido”, dijo Friedman. “Estos proveedores cobran a los anunciantes miles de millones de dĂłlares al año y les deben a los clientes que pagan proporcionar tecnologĂ­a que funcione con transparencia sobre cĂłmo funciona”.

IAS declinĂł hacer comentarios hasta que haya visto el informe completo.

DoubleVerify emitiĂł un comunicado acusando a Adalytics de buscar sus resultados buscando selectivamente tĂ©rminos problemĂĄticos sin el contexto adecuado. TambiĂ©n dijo que el informe omite informaciĂłn crucial sobre la configuraciĂłn para evitar la oferta antes y despuĂ©s de la oferta y correlaciona incorrectamente el cĂłdigo con las acciones de los anunciantes. DoubleVerify tambiĂ©n dijo que el informe no distingue entre los servicios de editor y anunciante de DV, lo que, segĂșn afirma, contribuyĂł a estas imprecisiones. Sin embargo, fuentes externas le dijeron a Digiday que el informe refleja con precisiĂłn las etiquetas tanto del editor como del anunciante.

DoubleVerify también dijo que los anunciantes pueden optar por ejecutar campañas de editores basadas en listas de excepciones, lo que anularía las categorías de evitación de contenido. Sin embargo, un experto en seguridad de marca se preguntó si los anunciantes conocen estas configuraciones.

“Esto habla de una cuestiĂłn mĂĄs amplia: los resultados de este informe son totalmente inventados, desde la omisiĂłn de informaciĂłn sobre la configuraciĂłn de la campaña del cliente hasta la metodologĂ­a misma, donde el investigador buscĂł arbitrariamente tĂ©rminos racistas”, segĂșn la declaraciĂłn de DoubleVerify. “Los resultados estĂĄn manipulados y carecen de validez o escala orgĂĄnica. Para ser claros, ningĂșn cliente ha expresado inquietudes sobre la precisiĂłn de nuestras categorĂ­as de contenido. El propio anĂĄlisis preliminar de DV confirma que todo el contenido compartido con nosotros se clasificĂł con precisiĂłn para clientes y socios”.

Cuando se le pidiĂł una declaraciĂłn, un portavoz de Fandom dijo que la compañía aĂșn no habĂ­a visto el informe completo de Adalytics. Sin embargo, el portavoz dijo que los pocos ejemplos de capturas de pantalla que habĂ­an visto “identifican un problema en toda la industria”, pero tambiĂ©n señalĂł que los ejemplos incluĂ­an contenido de “wikis antiguos con un trĂĄfico extremadamente bajo, razĂłn por la cual no se marcĂł a travĂ©s de nuestros sistemas de moderaciĂłn actuales o de Google”. Ad Server, los cuales monitorean nuestros wikis activos”.

Fandom, uno de los sitios de Internet mĂĄs grandes con 50 millones de pĂĄginas de contenido generado por usuarios, dijo que menos del 0,08% del contenido ha sido marcado como inapropiado, lo que, segĂșn dijo, incluye en su mayorĂ­a banderas falsas. TambiĂ©n emplea mĂșltiples medidas de seguridad, incluidos tres proveedores de la industria y un “sĂłlido equipo interno de confianza y seguridad que verifica y elimina manualmente todo el contenido adicional marcado lo mĂĄs rĂĄpido posible”.

“No toleramos la publicaciĂłn de material inapropiado y racialmente insensible en ninguna parte de nuestra plataforma UGC; este contenido no estĂĄ permitido segĂșn nuestras pautas y no serĂĄ tolerado”, segĂșn la declaraciĂłn de Fandom. “Garantizar la seguridad de la marca en nuestra plataforma es de suma importancia para nosotros y nos tomamos asuntos como este muy en serio. 
 A pesar de que estos ejemplos limitados no fueron un problema a escala, hemos agregado medidas de seguridad adicionales para desactivar proactivamente los anuncios en wikis con poco trĂĄfico que no activan los umbrales de marca”.

Los anunciantes dicen que los problemas con las påginas UCG justifican brindarles informes mås granulares para que puedan verificar las påginas a nivel de URL en lugar de simplemente recibir informes a nivel de dominio. Una fuente de la marca dijo que vale la pena considerar cambios en el modelo económico de seguridad de la marca. En lugar de pagar por el uso de la tecnología previa a la oferta, sugirieron tal vez pagar cada vez que se bloquea algo, pero reconocieron que eso también podría sentar otros malos precedentes.

Las fuentes dijeron que no han recibido respuestas sobre la precisión de los sistemas de inteligencia artificial de seguridad de la marca. Han preguntado sobre los tamaños de muestra del anålisis a nivel de pågina para comprender mejor si se basa en una escala pequeña o en Internet completo. Sin embargo, dicen que no han recibido respuestas adecuadas.

“¿Es el 99% de [a small number] de los sitios web que visita, o el 99% de los otros 4 mil millones de sitios web que visita? dijo una fuente de un anunciante de gran marca. “Si es lo primero, entonces el 99% no es la cifra real”.

Rastrear constantemente la web es un proceso complicado, señaló Joseph Turow, profesor de Industrias y Sistemas de Medios en la Escuela de Comunicación Annenberg de la Universidad de Pensilvania. Turow y otros académicos se preguntaron con qué frecuencia los robots rastrean continuamente y descubren problemas o miran påginas antes de pujar por anuncios. Si las empresas pueden realizar una orientación contextual con IA, también deberían poder mejorar la seguridad contextual de la marca en tiempo real. Sin embargo, si bien bloquear malas palabras no es difícil por sí solo, dijo que la velocidad requerida para analizar cada pågina en nanosegundos antes de las ofertas publicitarias es otro nivel de desafío.

“Me pregunto si serĂĄ una tonterĂ­a”, dijo Turow. “Es terriblemente desagradable, pero me pregunto si realmente es posible hacer esto de una manera que funcione al 100%”.

Con informaciĂłn de Digiday

Leer la nota Completa > El nuevo informe de Adalytics plantea nuevas preguntas sobre el uso de sistemas de inteligencia artificial para la seguridad de la marca

LEAVE A REPLY

Please enter your comment!
Please enter your name here