Desde la llegada de la IA generativa hace aproximadamente dos años, ha persistido una preocupación entre los especialistas en marketing que contemplan las ventajas del sesgo tecnológico.

Agencias como DDB, Monks y Huge, así como la plataforma de marketing de IA generativa Pencil, esperan reforzar la confianza de sus clientes a través de una combinación de correcciones humanas y soluciones técnicas. Este último ha presentado esta semana una serie de nuevas soluciones que sus ejecutivos esperan que calmen las preocupaciones de los clientes y proporcionen una solución sólida, si no una solución, al problema.

Pencil, propiedad del grupo de servicios de marketing Brandtech, agregó una función “Bias Breaker” a su conjunto de herramientas de IA, comenzó a ofrecer servicios de asesoramiento para ayudar a los clientes a redactar políticas legales y éticas de IA personalizadas e incorporó unidades anti-sesgos en su plan de capacitación para clientes. .

Aunque Rebecca Sykes, socia del grupo Brandtech y directora de tecnología emergente, dijo que las nuevas soluciones no pueden eliminar el sesgo humano en las decisiones creativas, pueden brindar a los especialistas en marketing un mejor “punto de partida”.

“Estamos elevando el piso, no el techo”, dijo a Digiday.

El software de Pencil se basa en varios modelos de entrenamiento de IA diferentes, incluidos Meta’s Llama, Google’s Imagen y Adobe Firefly, para impulsar sus resultados. Pero dados los sesgos presentes en los conjuntos de datos detrás de esos modelos, conlleva el riesgo de producir activos de marketing que muestren sesgos raciales, de género o de edad.

Por ejemplo, si la mayoría de las imágenes de ejecutivos de negocios contenidas en el modelo de capacitación de Adobe muestran hombres blancos con traje, un usuario que ingresa un mensaje solicitando una ilustración de un director de operaciones probablemente solo verá hombres de un determinado grupo demográfico.

En términos básicos, Bias Breaker es una función de ingeniería de mensajes que genera una línea adicional que se agrega a un mensaje de IA, solicitando que también se base en diversas características, como edad, género o raza, basándose en un enfoque probabilístico.

Sykes utiliza la metáfora de un juego de dados que se lanza para decidir la línea adicional, y cada dado representa un aspecto de inclusión o diversidad. Ella explicó: “Cuando ingresas tu mensaje simple, tiras los dados detrás de escena y se agregan a tu mensaje entre cero, uno y dos formas de inclusión. Eso es cero, para no corregir siempre en exceso, uno, para tener representación, y dos, para que pueda tener la posibilidad de interseccionalidad”.

Una vez que se ha completado la “tirada de dados” y se ha realizado el ajuste automáticamente, el usuario puede emplear un mensaje “más sofisticado”. Es una solución post-hoc para problemas inherentes a los modelos de entrenamiento en los que se basa Pencil, pero Sykes cree que debería disipar las preocupaciones de los clientes sobre el sesgo. “Esto no es una solución”, dijo Sykes.. “Es un primer paso hacia un despliegue realmente responsable de la IA con la ética en el centro”.

Las preocupaciones sobre el estatus legal de los activos de medios derivados de la IA, o la ética de su uso en una campaña de marketing, y los riesgos de sesgo han estado en la mente de los especialistas en marketing desde que la IA surgió como una inversión viable tras el lanzamiento de ChatGPT a finales de 2022. Aunque Sykes dijo que las preguntas sobre la legalidad de las herramientas de IA generativa se habían desvanecido (dijo que los clientes están “abriéndose camino a través de su propia tolerancia al riesgo”), los ejecutivos de la agencia dicen que el sesgo surge con frecuencia en las discusiones con los clientes.

“El sesgo es una preocupación muy real”, dijo George Strakhov, director global de tecnología creativa de DDB, en un correo electrónico. “Tenemos conversaciones con los clientes sobre esto todo el tiempo”.

“Si los datos utilizados para entrenar modelos de IA están sesgados o son unilaterales, el sistema de IA puede aprender y perpetuar esos sesgos. Esto puede conducir a resultados sesgados que refuerzan las desigualdades o los estereotipos existentes”, dijo Marc Maleh, director de tecnología de la tienda Huge de Interpublic Group.

Es una preocupación que va más allá de las preocupaciones de producción y marketing. En una encuesta de Gartner a más de 100 ejecutivos de auditoría realizada en agosto de 2023, el 54% reconoció la diversidad, la equidad y la inclusión como un riesgo clave que planeaban investigar en 2024; El 42% destacó resultados poco confiables de las herramientas de inteligencia artificial.

Geert Eichhorn, director ejecutivo de innovación de Monks, dijo que había abordado los problemas de sesgo mediante enfoques personalizados para abordar el problema. “Normalmente mitigamos [concerns] planificando y solicitando detalles específicos”, escribió en un correo electrónico. “Por ejemplo, para la biblioteca de valores actualizada de una marca, se nos pidió generar 200 personas en 200 ubicaciones diferentes (dentro del mismo país) y utilizamos datos del censo para dividir esas 200 personas por género, origen étnico y discapacidades”.

Su colega Anoesjka van Niekerk, directora legal a cargo del marco legal global de IA de Monks y parte de su equipo AI Core, agregó que los departamentos legal, de privacidad y de seguridad de la información de la compañía trabajan para examinar las herramientas que utiliza.

En DDB, Strakhov dijo que un enfoque centrado en el ser humano para evitar los prejuicios sería más efectivo que depender de más tecnología.

“Existe un sesgo que afecta a las personas que utilizan herramientas ‘listas para usar’ tal como lo hacen [the tools] son”, dijo. “Si inviertes tiempo en ajustar, aumentar y construir sistemas de seguridad adicionales además de los modelos predeterminados (como lo hacemos nosotros), entonces ya no es un problema. Sólo hay que dedicar tiempo y esfuerzo y luego construir un proceso donde haya supervisión, tanto por parte de un humano capacitado como de otra IA”.

En Faith, la unidad de IA de la agencia VCCP, jefe de innovación social y socio gerente Alex Dalman, dijo que adoptó un enfoque similar en un proyecto reciente para el cliente Cadbury. “Utilizamos la supervisión humana, principalmente; no creemos que GenAI sea un reemplazo de la experiencia y los conocimientos humanos, es una herramienta que tenemos que implementar con cuidado”, dijo en un correo electrónico.

En Huge, Maleh dijo que su equipo tiene como objetivo crear modelos de capacitación personalizados para clientes que mitiguen el sesgo a través de un programa de pruebas intensivo y barreras técnicas que formen “un ciclo de retroalimentación continua contra el sesgo”. Pero el trabajo de la agencia comienza trabajando con los clientes para redactar pautas que definan qué es aceptable y qué no.

A pesar de expresar confianza en que el “Bias Breaker” de Pencil puede mitigar el riesgo para los clientes, Sykes está de acuerdo en que el toque humano sigue siendo el respaldo más importante.

“No creemos en la automatización del 100% de nada”, afirmó. “Aún habrá un humano que diga ‘ese es el indicado para nosotros’. Todavía tenemos ese filtro”.

Con información de Digiday

Leer la nota Completa > Dado que el sesgo de la IA sigue siendo un punto conflictivo para los clientes, las agencias combinan soluciones humanas y técnicas

LEAVE A REPLY

Please enter your comment!
Please enter your name here