Durante el ciclo generativo de la IA, las marcas y agencias han estado ansiosas por invertir en herramientas de IA para hacer de todo, desde crear eficiencias en el flujo de trabajo hasta aumentar la cobertura de prensa. Sin embargo, una parte menos interesante del panorama de la IA es la posibilidad de que el contenido generado o alterado por la IA sea etiquetado como tal.

Gran parte del revuelo de la industria en torno a la IA generativa se debe al potencial de la tecnología para hacer que el trabajo de los especialistas en marketing sea más fácil, más rápido y más eficiente. En lo que parece un instante, herramientas de todo tipo, desde la función de búsqueda de Google hasta Firefly en Adobe, han incorporado algún tipo de IA. Pero a medida que aparecen en las redes sociales más imágenes tocadas por la IA, en las que una persona tiene una cantidad sospechosa de dedos, por ejemplo, los gigantes tecnológicos están colocando algunas barreras antes de que las cosas se salgan demasiado de control.

Los especialistas en marketing, sin embargo, dudan más en ver etiquetas “Hecho con IA” en sus campañas creativas. Principalmente porque esa etiqueta pinta con un pincel demasiado amplio, dicen los ejecutivos, ya que etiqueta el contenido generado por IA o en el que se utilizaron herramientas de IA durante el proceso de creación de la misma manera, a pesar de que son dos cosas diferentes.

“Porque al final del día, a los clientes de la marca lo que les importa es la percepción de la marca y las implicaciones para la percepción de la marca”, dijo Cristina Lawrence, vicepresidenta ejecutiva de experiencia del consumidor y contenido en Razorfish. “Es una preocupación de percepción”.

Y, tal vez, con razón. Las imágenes generativas basadas en IA tienen una reputación de cantidad sobre calidad, debido a esos ejemplos notables de imágenes generadas por IA en las que personas que parecen humanas tienen demasiados dedos, ligamentos fuera de lugar o una cantidad excesiva de dientes. En última instancia, según Lawrence, los especialistas en marketing temen que las etiquetas de IA impliquen que el contenido no es auténtico o es engañoso.

No es que los especialistas en marketing no vean el valor de etiquetar la IA como tal, pero hay una percepción negativa en torno a las imágenes generadas por IA, y las marcas no quieren ser asociadas con la IA de esa manera, dijo Lawrence. Las etiquetas de IA tal como existen actualmente implican que una imagen completa se generó únicamente a través de IA, a diferencia de algo creado con supervisión humana utilizando herramientas impulsadas por IA.

En particular, el ciclo de exageración de la IA ha pasado por una mala racha. La última ola de marketing para la IA no está llegando a las personas como algunos esperaban. El ejemplo más reciente es el anuncio con temática olímpica del chatbot Gemini AI de Google, en el que el chatbot Gemini de Google tiene la tarea de generar una carta de un joven atleta a la estrella olímpica estadounidense Sydney McLaughlin-Levrone. El anuncio no tuvo buena aceptación y generó críticas sobre el hecho de que las grandes tecnologías reemplazaran la creatividad de un niño con texto generado por inteligencia artificial.

En toda la industria, se ha generado impulso para un mejor etiquetado e identificación de contenido generado o alterado por IA y la implementación de salvaguardas para mitigar y prevenir el fraude de IA. En un esfuerzo por establecer estándares de la industria, algunas empresas se han unido a través de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), que se fundó en 2021 para certificar la procedencia de los medios en línea (o, para decirlo en términos sencillos, cómo llegó una imagen a estar y viajar en línea). Gigantes tecnológicos como Microsoft, Intel, Sony y Adobe son miembros actuales del grupo, que también incluye empresas de cámaras, empresas de medios y holdings como Publicis Groupe.

En octubre pasado, Adobe presentó un nuevo ícono de “Credenciales de contenido” en un esfuerzo por mejorar la transparencia en torno a videos e imágenes creados o editados con IA. En febrero, Meta hizo un anuncio similar, implementando etiquetas de contenido de “Información de IA” para que los usuarios sepan que se utilizó IA para generar o alterar contenido.

Es un esfuerzo valiente, pero podría causar un efecto dominó en el enfoque de la industria para etiquetar el contenido de IA, dijo Elav Horwitz, vicepresidente ejecutivo y director global de innovación aplicada de McCann Worldgroup.

“Gmail está mejorando con la IA generativa predictiva”, afirmó. “¿Así que lo que? ¿Tendríamos que empezar a decir en nuestros correos electrónicos ‘Hecho con IA’ ahora que está integrado en todo lo que hacemos?

Para Horwitz, la idea de etiquetar el contenido como creado o modificado mediante IA es buena en teoría. Pero en la práctica es una pendiente resbaladiza. Tal como está ahora, la práctica es etiquetar todo como IA, ya sea que haya sido genuinamente generada por IA o que el proceso de producción involucre herramientas impulsadas por IA. Esto pone en duda qué es IA y qué no, afirmó. Lo que, tal vez, enturbie aún más las aguas a favor de las empresas de IA.

Por ejemplo, puede tener más sentido etiquetar una campaña que utilice un modelo generado por IA como “Hecha con IA”. Sin embargo, los ejecutivos de la agencia argumentan que esa misma etiqueta no debería aplicarse a una campaña que presenta la foto de un modelo humano que fue ligeramente retocada con herramientas impulsadas por inteligencia artificial. (Un ejecutivo de otra agencia le contó a Digiday sobre una experiencia similar en la última edición de nuestra serie Confesiones).

En un momento, hubo quejas de la industria sobre un marco con niveles de calificación, según un ejecutivo que habló en segundo plano. Por ejemplo, el nivel cinco significaría que la imagen fue generada completamente por inteligencia artificial. El nivel uno significaría que no se utilizó IA. Una vez más, esto apunta a una pendiente resbaladiza en la que diferenciar una intervención mínima utilizando herramientas de IA versus una intervención significativa sería un desafío, añadió el ejecutivo.

Lo que está claro es que el tren de IA ya salió de la estación y no hay forma de devolverlo, según el ejecutivo anónimo.

“La IA es una especie de caja de Pandora. Ya salió, así que no podemos volver a ponerlo en la caja”, dijeron. “Todo esto quiere decir que el panorama está evolucionando bastante rápidamente. No creo que conozcamos todas las barreras de seguridad de todo. Eso es lo que estamos viviendo”.

Tal como están las cosas, Estados Unidos no tiene ninguna regulación federal sobre la IA. En cambio, la supervisión está a cargo de una mezcolanza de actores, incluidas entidades gubernamentales, corporaciones y organizaciones como C2PA. A principios de este mes, Digiday informó que los senadores se disponían a proponer nuevas regulaciones para la privacidad, la transparencia y la protección de los derechos de autor con respecto a la IA.

Pero la IA generativa es sólo el último objeto brillante de la industria. Es decir, a medida que se siga adoptando y perfeccionando el etiquetado de contenidos en toda la industria, los clientes eventualmente llegarán a un punto en el que su aprensión disminuirá, dijo Lawrence de Razorfish.

“A medida que continuamos refinando el etiquetado del contenido y la procedencia, creo que eventualmente llegaremos a un punto en el que esa aprensión disminuirá”, dijo.

Con información de Digiday

Leer la nota Completa > “Es una preocupación de percepción”: los especialistas en marketing dicen que las barreras de seguridad de la IA necesitan más matices

LEAVE A REPLY

Please enter your comment!
Please enter your name here