El futuro del ciclo de exageración de la IA generativa está en el aire, especialmente después de un informe de Goldman Sachs que cuestiona el valor real de las herramientas de IA. Aún así, estas herramientas y plataformas, ya sea que estén basadas en IA generativa o aprendizaje automático glorificado, han inundado el mercado. En respuesta, las agencias están atravesándolos a través de zonas de pruebas (espacios seguros, aislados y controlados para realizar pruebas), así como grupos de trabajo internos de IA y contratos con clientes.
Si bien la inteligencia artificial en sí se remonta a hace algún tiempo, la carrera armamentista generativa de la IA en la industria comenzó el año pasado con la promesa de que la tecnología haría que el trabajo de los especialistas en marketing fuera más fácil y más eficiente. Pero aún no se ha decidido sobre esta promesa, ya que la IA generativa aún se encuentra en una etapa incipiente y enfrenta desafíos con cosas como alucinaciones, sesgos y seguridad de los datos. (Y eso no quiere decir nada de los problemas energéticos asociados con la IA). Además, las empresas de IA cuentan con montones de datos, lo que podría hacer que la piratería sea una preocupación mayor.
“Existen muchísimas plataformas publicitarias. Ahora todo es IA. ¿Es realmente? Tratar de examinar eso desde el principio y ser considerados al respecto, es algo en lo que pasamos mucho tiempo”, dijo Tim Lippa, director global de productos de la agencia de marketing Assembly.
En este punto, la IA generativa ha ido más allá de los grandes modelos de lenguaje como ChatGPT de OpenAI, filtrándose en todo, desde la funcionalidad de búsqueda en Google y las plataformas de redes sociales hasta la creación de imágenes. Las agencias también han implementado sus propias experiencias de IA para uso interno, así como para operaciones de cara al cliente. Por ejemplo, en abril, Digitas lanzó Digitas AI, su propio sistema operativo de IA generativa para clientes. (Encuentre una cronología completa del año de ruptura de la IA generativa aquí).
A pesar de todo el alboroto en torno a la IA generativa, todo está todavía en modo de prueba, según los ejecutivos de la agencia. Es especialmente importante considerar que algunos esfuerzos de IA se basan en generar titulares rápidos o en hacer feliz a la alta dirección sofocando sus temores de perder el tren de la IA generativa.
“Algunas de estas soluciones en este momento todavía tienen dificultades en lo que respecta a [intellectual property] y los derechos de autor y cómo los protegen, y si pueden revelar los conjuntos de datos que están usando o entrenando”, dijo Elav Horwitz, vicepresidente ejecutivo y director global de innovación aplicada de McCann Worldgroup. Recordemos, por ejemplo, que la directora de tecnología de OpenAI, Mira Murati, apareció en los titulares en marzo por negarse a ofrecer detalles sobre qué datos se estaban utilizando para entrenar a Sora, el generador de texto a vídeo de OpenAI.
Según Horwitz, uno de los grandes problemas de la IA generativa son las alucinaciones. Es algo sobre lo que McCann ha estado en conversaciones con OpenAI, tratando de concretar exactamente qué está haciendo la compañía de tecnología para resolver ese problema porque sigue surgiendo una y otra vez, dijo.
McCann tiene acuerdos a nivel empresarial con los principales actores del sector, incluidos ChatGPT, Microsoft Copilot, Claude.ai y Perplexity AI, todos los cuales han sido considerados entornos seguros por los equipos legales, de TI y financieros de la agencia. (Los detalles financieros de estos acuerdos no fueron revelados). Solo después de que las plataformas se consideren seguras se podrán ofrecer las soluciones a las partes interesadas internas. E incluso entonces, añadió Horwitz, la agencia construye su propio entorno de pruebas en sus propios servidores para garantizar la seguridad de la información confidencial antes de firmar cualquier acuerdo con socios de IA.
McCann también está probando actualmente Adobe Custom Models, una herramienta de producción de contenidos de Adobe. “De hecho, podemos utilizar nuestros propios recursos visuales como parte de ello. Sabemos que es seguro porque ha sido entrenado con nuestros propios datos. Entonces es cuando sabemos que también podemos utilizarlo comercialmente”, dijo Horwitz. Los datos es la propia agencia a través de investigaciones o información del cliente, agregó.
Es una historia similar en Razorfish, donde la agencia tiene acuerdos con plataformas más grandes que mantienen sus datos y los de sus clientes en un espacio aislado. Existe una lista de proveedores aprobados para garantizar que las plataformas de inteligencia artificial con las que se asocia la agencia no hayan sido capacitadas en activos con licencia o libres de regalías, según Cristina Lawrence, vicepresidenta ejecutiva de experiencia de contenido y consumidores de Razorfish.
“O debemos asegurarnos de que los datos confidenciales que se utilizan para las herramientas no se utilicen como material de capacitación para los LLM, lo cual todos sabemos es algo que hacen”, agregó.
Dando un paso más allá de las zonas de pruebas, Razorfish cuenta con protecciones legales que requieren que los clientes confirmen que son conscientes de que se está utilizando IA generativa para el trabajo del cliente. “Hay que entender que tenemos múltiples niveles de pasos de verificación porque esto es muy nuevo y queremos ser completamente abiertos y transparentes”, dijo Lawrence.
Una vez más, la IA generativa sigue siendo un espacio nuevo para los especialistas en marketing. Herramientas como ChatGPT se lanzaron originalmente al público en general, y las plataformas aprenden a medida que la tecnología avanza y cambia, dijo Lawrence. Todavía no ha habido un consenso social sobre cómo debería regularse la IA. Últimamente los legisladores han estado reflexionando sobre la intersección de la IA y la privacidad, preocupados por la privacidad, la transparencia y la protección de los derechos de autor.
Hasta que se alcance ese consenso, las marcas y sus agencias asociadas tienen la responsabilidad de establecer barreras y parámetros para garantizar la seguridad y escalabilidad de los datos, y sortear los sesgos inherentes de la IA, según los ejecutivos de la agencia.
“Mi favorito siempre es asegurarme de que las imágenes y lo que saldrá del lado creativo tengan el número correcto de dedos de manos y pies y todas esas cosas en el centro”, dijo Lippa. “Todos colocaron un logotipo de IA sobre todo lo que hicieron durante el último año. En algunos casos, realmente lo es. En algunos casos, realmente no lo es”.
Con información de Digiday
Leer la nota Completa > ‘Ahora todo es IA’: en medio del auge de la IA, las agencias navegan por la seguridad, la estabilidad y la equidad de los datos