A medida que el interés y el uso de la IA generativa se propaga como un reguero de pólvora en el espectro de marketing y medios, y aparentemente todas las empresas anuncian algún avance o desarrollo, incluida la búsqueda, la creación de contenido, la publicidad y los medios, ¿dónde y quiénes son los bomberos para evitar que la IA se queme? ¿control?
Los deepfakes y la desinformación no han tardado mucho en convertirse en el rayo proverbial que cae sobre un árbol muerto en un bosque seco.
Tales brotes no se previenen hoy en día tanto como se podría, dijo John Montgomery, quien se especializa en temas de privacidad y prevención de fraudes luego de una larga carrera en GroupM abordando esos temas.
“Hay equipos dentro de cada agencia y cada comercializador que tienen la tarea de descubrir cómo usar modelos de lenguaje extenso en marketing”, dijo Montgomery, quien trabaja con empresas como DoubleVerify y LinkedIn en estos temas. “Y hay muchas conversaciones distópicas sobre lo que ChatGPT podría hacer en torno a las elecciones, en torno a todo, desde la distracción de la humanidad hasta la aceleración de las falsificaciones profundas. Pero lo que no obtuve de nadie fue… ¿qué debemos hacer al respecto?”.
Montgomery se apoya en la perogrullada del marketing de que si puedes medirlo, puedes mitigarlo. Por lo tanto, aboga por que la industria use tecnología, incluida la IA generativa, para descubrir lo que él llama contenido sintético. “Una vez que puede medir eso, puede tomar la decisión de optimizarlo”, dijo.
Muchos esfuerzos individuales y comunitarios están avanzando con nuevas tecnologías y asociaciones que tienen como objetivo mitigar la información errónea generada por IA a través de diversas herramientas y estándares.
Para desarrollar nuevos estándares, algunas empresas se han unido a través de organizaciones como la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), que se fundó en 2021 para desarrollar estándares técnicos para varios tipos de contenido. Los miembros actuales incluyen gigantes tecnológicos como Microsoft, Intel, Sony, Adobe junto con compañías de cámaras como Canon y Nikon. Otros incluyen compañías de medios como The New York Times, la BBC, France TV y CBC Radio Canada.
Entre los miembros de C2PA se encuentra la startup TruePic, que tiene un kit de desarrollo de software (SDK) móvil que puede proporcionar una “firma digital” para verificar la autenticidad de una foto. La compañía también comenzó a trabajar recientemente con la plataforma de contenido de IA Revel.AI para etiquetar deepfakes y otros videos como generados por computadora. Asegurarse de que las empresas y las personas puedan detectar el contenido generado por IA incluye mejorar la alfabetización digital de los consumidores y la sociedad, dijo el CEO de TruePic, Jeffrey McGregor. Dijo que también es clave crear estándares uniformes que sean interoperables, y agregó que las nuevas regulaciones sobre la transparencia de los medios también ayudarían.
A principios de esta semana, TruePic, una empresa con tecnología que puede verificar si las imágenes y los videos son generados por IA, anunció una asociación con el Foro Económico Mundial para ayudar a “dar forma a la trayectoria del cambio tecnológico”. Otros que anunciaron nuevas asociaciones esta semana incluyen Shutterstock, que anunció una nueva asociación global con las Naciones Unidas para desarrollar modelos, herramientas, productos y soluciones éticos de IA a través de la plataforma “AI For Good” de las Naciones Unidas.
“Lo que más nos preocupa es que si se puede falsificar algo, entonces se puede falsificar todo”, dijo McGregor a Digiday.
Otras nuevas empresas que recientemente lanzaron nueva tecnología incluyen RKVST, que la semana pasada presentó una herramienta llamada Instaproof que verifica los datos en busca de evidencia de falsificaciones profundas y contenido generado o editado por IA. “Durante siglos hemos tenido bolígrafos y la gente los ha usado para escribir cosas”, dijo Jon Geater, CTO de RKVST. “Algo de eso ha sido bueno y algo de eso ha sido malo”.
Otra es PicoNext, una startup que ayuda a las empresas a crear NFT, que a principios de esta semana agregó una forma de autenticar el contenido de marca en las cadenas de bloques Ethereum y Polygon. La compañía no reveló ninguna marca que esté probando la nueva herramienta en versión beta privada. Sin embargo, el fundador y director ejecutivo de PicoNext, Dave Dickson, que pasó una década trabajando en tecnología emergente en Adobe, dijo que los ejemplos de contenido podrían ser material de campaña de alto riesgo, como elementos de un anuncio del Super Bowl y otro contenido visual. Diskson lo expresó de esta manera: “¿Cómo puede reparar su reputación en tiempo real si está siendo dañada?”
Otras compañías como Zefr están tratando de abordar el contenido falso en las plataformas de redes sociales. El año pasado, la empresa adquirió la startup israelí Adverif.ai, que utiliza una combinación de aprendizaje automático y verificadores de hechos humanos para detectar información errónea. Al usar la “IA discriminatoria”, que Zefr describió como lo opuesto a la IA generativa, la empresa puede concentrarse en varias características de cualquier contenido y usar esa información para determinar si es seguro. “El verdadero peligro para la sociedad será la sutileza de la información errónea durante el próximo año y medio”, dijo Andrew Serby, director comercial de Zefr. “Ahí es donde las opiniones se desvían, y no creo que haya suficiente supervisión porque es difícil de entender”.
Dentro del mundo de las agencias, los esfuerzos también se están acelerando para garantizar que tanto el uso interno de la IA generativa como los esfuerzos de los clientes estén dentro de parámetros seguros. Dave Meeker, vicepresidente ejecutivo y jefe de diseño e innovación, América, en Dentsu Creative (pero que trabaja en creatividad y medios), dijo que su holding ha estado trabajando en varios usos de la IA desde 2016 y se toma muy en serio la protección de cualquier uso de la IA. .
“Estamos… adoptando un enfoque muy metódico, mesurado, legal y de cumplimiento prioritario para [all uses of generative AI]no solo para asegurarnos de que seamos indemnizados, sino para asegurarnos de que el trabajo que hacemos sea transparente, auténtico, real y siga siendo significativo mientras estamos absolutamente entusiasmados con el potencial”.
Meeker señaló el desarrollo y lanzamiento del cliente Intel el otoño pasado (antes de esta explosión actual de interés en la IA generativa) de su propio detector de falsificación profunda, llamado FakeCatcher, que puede detectar con un 96 % de precisión contenido de video falso.
Dejando de lado todos esos esfuerzos, un experto en seguridad de la marca de una empresa holding que se negó a hablar oficialmente, dijo que los esfuerzos de toda la industria en última instancia no evitarán la información errónea generada por la IA porque los malos actores usarán la IA de todos modos. En cambio, el experto argumentó que la regulación gubernamental será mejor para establecer perímetros de lo que es aceptable y lo que no lo es.
“La apropiación indebida de logotipos, contenido y marcas comerciales de los clientes para cometer fraude o comportamientos inapropiados en línea siempre ha sido un problema”, dijo el ejecutivo. “La única forma [AI-generated fraud] se va a solucionar es a través de la regulación. Ya no estoy convencido de que los organismos de la industria puedan lograr lo que necesitan lograr. Estos son problemas globales… Los códigos de conducta solo funcionan para las personas que se portan bien y quieren cumplir con los códigos de conducta”.
Por lo que vale, el gobierno está en el caso. Las preocupaciones con la IA relacionadas con la información errónea, los problemas de derechos de autor y la privacidad de los datos fueron lo más importante el martes durante la audiencia del Comité Judicial del Senado de EE. UU. sobre la supervisión de la IA. La directora de privacidad y confianza de IBM, Christina Montgomery, quien testificó junto con el director ejecutivo de OpenAI, Sam Altman, y el profesor de la Universidad de Nueva York, Gary Marcus, dijo que las reglas sobre la IA deberían ser diferentes según los riesgos. Agregó que también es importante brindar una guía clara sobre los usos y las categorías de IA y que los consumidores sepan cuándo interactúan con los sistemas de IA.
“Se debe exigir a las empresas que realicen evaluaciones de impacto que muestren cómo funcionan sus sistemas frente a las pruebas de sesgo y otras formas en que podrían impactar al público y atestiguar que lo han hecho”, dijo Montgomery..
Con información de Digiday
Leer la nota Completa > Estas son las medidas de seguridad que las marcas y las agencias están aprovechando para prevenir o mitigar el fraude de IA