Tras el nuevo informe de Adalytics que cuestiona la eficacia de la tecnología de seguridad de marca impulsada por IA, los expertos de la industria tienen más preguntas sobre qué funciona, qué no y por qué pagan los anunciantes.

El informe de 100 páginas, publicado el miércoles, examinó si la tecnología de seguridad de marca de compañías como DoubleVerify e Integral Ad Science es capaz de identificar contenido problemático en tiempo real y bloquear la aparición de anuncios junto a discursos de odio, referencias sexuales o contenido violento.

Después de que los anunciantes expresaran su sorpresa por los hallazgos, DV e IAS defendieron sus ofertas con declaraciones que atacaban la metodología del informe. Según una publicación de blog de IAS, la empresa está “impulsada por una misión singular: ser el punto de referencia mundial en confianza y transparencia en la calidad de los medios digitales”.

“Estamos comprometidos con la excelencia en la medición y optimización de los medios”, escribió IAS. “Y estamos innovando constantemente para superar los altos estándares que nuestros clientes y socios merecen mientras maximizan el retorno de la inversión y protegen el valor de la marca en los canales digitales”.

En la declaración de DoubleVerify, la compañía dijo que el informe de Adalytics carecía del contexto adecuado y enfatizó sus opciones de configuración para los anunciantes. Sin embargo, fuentes dentro de los espacios de tecnología publicitaria, marcas y agencias dijeron que el informe identifica con precisión cuestiones clave. A pesar de los compromisos, las fuentes dijeron que DV e IAS todavía no han brindado suficiente transparencia para aliviar las preocupaciones sobre las herramientas de IA, lo que a su vez ayudaría a la industria a comprender y probar mejor las herramientas, así como a abordar preocupaciones más amplias.

Un experto, citando una escena de Star Wars en la que Obi Wan Kenobi usa el control mental para redirigir a los soldados de asalto en otra dirección, lo expresó de esta manera: “Si alguna vez hubo un momento de ‘estos no son los droides que estás buscando’ en la seguridad de la marca , esto es todo “.

A principios de esta semana, Digiday envió preguntas sobre DV e IAS sobre las que los anunciantes y expertos en tecnología querían obtener información antes de que se publicara el informe. Las preguntas cubrieron cómo se aplica la tecnología de seguridad de marca, el proceso del modelo de IA para analizar y valorar la seguridad de las páginas y si las páginas se rastrean ocasionalmente o en tiempo real. Otros preguntaron si las empresas realizaron análisis a nivel de página y si el contenido UGC se analiza de manera diferente al contenido de noticias. Ni DV ni IAS respondieron directamente a las preguntas.

“Claramente hay algunas lagunas en el sistema en las que se están cometiendo errores evidentes”, afirmó Laura Edelson, profesora de la Universidad de Nueva York. “Si fuera cliente, lo primero que querría es más información sobre cómo funciona este sistema”.

Sin transparencia, un informe como el de Adalytics “realmente destruye la confianza”, porque “sin confianza no hay fundamento”, afirmó Edelson.

Entonces, ¿cómo sería la transparencia? ¿Qué tipo de información deberían obtener los anunciantes de los proveedores? ¿Y cómo pueden las herramientas de seguridad de marca de IA abordar mejor los problemas que afectan al contenido y los anuncios en Internet?

Rocky Moss, director ejecutivo y fundador de DeepSee.io, una startup de seguridad de marca de IA, argumentó que las empresas de medición deberían proporcionar datos más granulares sobre la precisión y confiabilidad de la categorización a nivel de página. Los anunciantes también deberían preguntar a los proveedores sobre otras cuestiones: cómo responde la tecnología de oferta previa de los proveedores cuando una URL no está categorizada o cuando está detrás de un muro de pago; cómo abordan una posible dependencia excesiva de las calificaciones agregadas; y sobre el riesgo de supresión de ofertas para URL sin categoría. También cree que los proveedores deberían compartir información sobre cómo evitan falsos positivos y cuánto tiempo dedican a revisar el contenido marcado todos los días para sitios de noticias heredados y con mucho tráfico.

“Dicho todo esto, los modelos de categorización siempre serán probabilísticos, y se esperan falsos negativos y falsos positivos en (con suerte) pequeñas cantidades”, dijo Moss. “Si el producto se vende sin revelarlo, es deshonesto. Si alguien compra protección BS, creyendo que es perfecta, conozco bots de Twitter con algunos NFT para venderlos”.

La división entre la seguridad de la marca y la seguridad del usuario es cada vez más borrosa, según Tiffany Xingyu Wang, fundadora de una startup sigilosa y cofundadora de Oasis Consortium, una organización sin fines de lucro centrada en tecnología ética. Ella cree que las empresas incentivadas para abordar ambos problemas merecen mejores herramientas para la seguridad del usuario, la idoneidad de la marca y la publicidad alineada con los valores.

“Necesitamos alejarnos de una lista de bloqueo centrada en el filtrado”, dijo Wang, quien anteriormente fue CMO de la empresa de moderación de contenido de IA OpenWeb. “Ya no es adecuado para los anunciantes, dado el entorno cada vez más complejo”.

En Seekr, que ayuda a los anunciantes y a las personas a identificar y filtrar información errónea y otro contenido dañino, cada contenido que ingresa a su modelo de inteligencia artificial está disponible para su revisión. Eso incluye artículos de noticias, episodios de podcasts y otro contenido. En lugar de etiquetar el riesgo del contenido según sistemas medidos en una escala “baja”, “media” o “alta”, Seekr califica el contenido en una escala del 1 al 100. También muestra qué se califica, cómo se califica, qué se marca y por qué está marcado.

La transparencia también ayuda a las empresas a tomar mejores decisiones comerciales, dijo Pat LaCroix, vicepresidente ejecutivo de asociaciones estratégicas de Seekr. También señaló que el rendimiento y la idoneidad no deberían ser mutuamente excluyentes: “Esto no debería verse como una molestia o un impuesto que se paga, sino como algo que impulsa métricas clave”.

“La gente necesita cambiar la perspectiva y todos deben ir un nivel más profundo para saber cómo evaluar el contenido. Es demasiado negro, demasiado genérico”, dijo LaCroix, quien anteriormente trabajó en agencias e internamente en marcas como Bose. “Al final del día, el CPM sigue siendo una métrica real a la que los compradores están en deuda y los anunciantes todavía están buscando los precios más bajos y es por eso que esto sigue sucediendo”.

Avisos y productos: otras noticias y anuncios sobre IA

  • La Comisión Irlandesa de Protección de Datos tomó medidas contra X por supuestamente utilizar datos de usuarios de la UE sin consentimiento para entrenar el modelo Grok AI de X.
  • Un nuevo informe de Check My Ads examina el daño de los obituarios generados por IA.
  • La FCC ha abierto un nuevo período de comentarios mientras busca crear nuevas reglas para el uso de la IA en la publicidad política.
  • Un nuevo informe de Dentsu encontró que el porcentaje de CMO que dudan de la capacidad de la IA para crear contenido cayó del 67% en 2023 al 49% en 2024.

Con información de Digiday

Leer la nota Completa > Informe sobre IA: Cómo podría ser la transparencia para la tecnología de seguridad de marca impulsada por IA

LEAVE A REPLY

Please enter your comment!
Please enter your name here