La semana pasada, Google Deepmind amplió la disponibilidad de su herramienta SynthID para marcar texto con marcas de agua generado por IA. Después de implementar el texto SynthID en Google Gemini a principios de este año, está haciendo que la herramienta sea de código abierto para ayudar a mejorar la transparencia del texto generado por IA a partir de otros modelos de lenguaje grandes.

Poner marcas de agua en el contenido de IA ha sido una alta prioridad desde que el contenido generado por IA comenzó a proliferar en los últimos dos años. Si bien la atención se ha centrado principalmente en poner marcas de agua en imágenes y videos de IA, el texto con marcas de agua podría ayudar a detectar información errónea y estafas generadas por IA junto con reseñas de productos falsas y materiales protegidos por derechos de autor. Las actualizaciones de esta semana, que se lanzan en versión beta, son parte de una expansión más amplia de SynthID para texto, música, imágenes y video, y cada tipo de contenido tiene un sistema diferente de marca de agua.

“Ser capaz de identificar contenido generado por IA es fundamental para promover la confianza en la información”, se lee en una publicación del blog de DeepMind. “Si bien no es una solución milagrosa para abordar problemas como la desinformación o la atribución errónea, SynthID es un conjunto de soluciones técnicas prometedoras para este apremiante problema de seguridad de la IA”.

En un artículo publicado esta semana en Nature, el equipo de investigación de Deepmind explicó el proceso de creación y prueba. Al generar texto, el modelo de IA incorpora una firma invisible utilizando una “semilla aleatoria” y un patrón estadístico con un sistema basado en puntuaciones para dar forma al texto de salida. Luego, ese proceso ayuda en el otro extremo a detectar si el texto se creó con IA generativa utilizando una clave secreta de marca de agua. Los investigadores también señalan que las marcas de agua generativas son perfectas y tienen limitaciones cuando se traducen, reescriben o cuando se usan con texto más corto y contenido fáctico.

Si bien algunos expertos han advertido previamente que poner marcas de agua en el contenido de IA no es suficiente, organizaciones como C2PA están trabajando para crear nuevos estándares para la transparencia y autenticidad del contenido de IA, con miembros clave como Google y otros gigantes tecnológicos.

Google también probó el texto SynthID con un experimento en vivo utilizando casi 20 millones de respuestas de Gemini. Además de probar la precisión del proceso de marca de agua, Google hizo que los usuarios de Gemini calificaran el texto con una respuesta de aprobación o desaprobación. Los investigadores descubrieron que el texto SynthID no degradaba la calidad de los resultados ni alteraba notablemente el nivel de calidad o utilidad del texto AI con marcas de agua SynthID. El equipo también realizó una prueba más pequeña con 3000 respuestas de resultados con y sin marca de agua en función de la gramática, la relevancia, la precisión, la utilidad y la calidad.

Los expertos en marketing y seguridad de marca dijeron que el enfoque en general parece un paso positivo, pero que podría depender de la eficacia general y el nivel de aceptación. Varias encuestas han encontrado un gran interés de los consumidores en la transparencia del contenido de IA generativa, y una encuesta realizada por SOCi encontró que el 76% de los consumidores deseaban al menos cierto grado de claridad.

Es demasiado pronto para conocer todas las formas en que SynthID podría aportar transparencia en varios LLM, pero podría ayudar a detectar información errónea generada por IA en plataformas sociales. Damian Rollison, director de conocimiento del mercado de SOCi, dijo que sería ideal si todo el contenido generado por IA, tanto útil como dañino, pudiera identificarse explícitamente.

“Las plataformas donde se sabe que el contenido de IA es rampante deben implementar esta o soluciones similares de una manera que sea útil para los editores, anunciantes y consumidores”, dijo Rollison. “Desafortunadamente, plataformas como el propio Google, Meta, X y otras se benefician indirectamente de la proliferación de contenido de IA, por lo que su voluntad de combatir el contenido falso probablemente se equilibrará con un desincentivo para impactar los ingresos publicitarios y las métricas de participación”.

Otros coinciden en que la ampliación será clave, pero tal vez no sea útil para todo. Nick Sabharwal, vicepresidente de producto de Seekr, dijo que sólo podría ayudar con actores poco sofisticados. Algunos ejemplos podrían ser profesores que verifican si un estudiante usó Gemini o ChatGPT para escribir un artículo, o consumidores que verifican si un mensaje de marketing o de servicio al cliente fue generado por IA. Según Sabharwal, las herramientas de detección pueden ser útiles y necesarias, pero es poco probable que prevengan el contenido dañino. Esto se debe a que los actores maliciosos se trasladarán a otras plataformas que no utilizan marcas de agua.

“Ya ha habido una proliferación significativa de LLM y proveedores de LLM”, dijo Sabharwal. “La consolidación no parece probable. Además, los grandes actores nefastos, como los Estados-nación, que quieren difundir información errónea, también pueden desarrollar sus propios modelos para sortear estas barreras”.

Si la ampliación de SynthID tiene éxito, ¿podría ayudar a evitar que se publiquen anuncios en línea en sitios web generados por IA, como los MFA? Potencialmente, dijo Arielle García, directora de inteligencia de Check My Ads. Pero a menos que SynthID proporcione claridad sobre sus puntuaciones de probabilidad, podría haber riesgos similares de falsas banderas que ya existen con la verificación de anuncios. García también señaló que los AMF y otros planes siguen siendo en gran medida una cuestión de incentivos, no sólo un problema técnico.

“Las empresas de tecnología publicitaria, agencias y otros proveedores todavía ganan mucho dinero con MFA”, dijo García. “Y si las marcas no pueden o no pueden confirmar dónde se publicaron sus anuncios, esto corre el riesgo de ser otra garantía vacía o falsa”.

Avisos y productos: noticias sobre IA y otros anuncios

  • Más de 25.000 creadores han firmado una declaración sobre el uso sin licencia de obras creativas para formar GenAI que advierte sobre una “amenaza injusta a los medios de vida de las personas detrás de esas obras, y no debe permitirse”.
  • Una demanda contra Character AI, presentada por la madre de un adolescente que se suicidó, alega que la aplicación de chatbot de rol contribuyó a la muerte de su hijo. La noticia ha provocado nuevos debates sobre los peligros de los chatbots de IA, especialmente para las edades más jóvenes y los usuarios impresionables.
  • Un nuevo informe de Snowflake analiza las tendencias emergentes relacionadas y no relacionadas con la IA que están dando forma al panorama del marketing, incluido el aumento de la gravedad de los datos, la IA generativa, las preocupaciones sobre la privacidad y los medios comerciales.
  • La startup de detección de falsificaciones de IA, Reality Defender, anunció una financiación adicional de 15 millones de dólares en una ronda de financiación Serie A con nuevas inversiones de Accenture, IBM Ventures y otras fuentes. (En otras noticias, McAfee y Yahoo News se están asociando para verificar la autenticidad de las imágenes y evitar la desinformación de la IA).
  • OpenAI y Microsoft anunciaron un acuerdo de 10 millones de dólares con numerosos editores, incluidos The Minnesota Star Tribune, Philadelphia Inquirer y otros periódicos metropolitanos importantes.
  • El Parlamento Europeo está utilizando los modelos Claude AI de Anthropic para crear y ampliar un archivo digital interactivo.
  • RunwayAI lanzó una nueva herramienta de captura de movimiento que permite a las personas usar IA generativa en videos desde su teléfono inteligente.
  • Entraron en vigor las nuevas normas de la FTC que prohíben las reseñas falsas y que regulan las tácticas de marketing engañosas tanto de los humanos como de la IA. (Lea más en nuestra explicación reciente).
  • Anthropic presentó una nueva herramienta de inteligencia artificial que tiene la capacidad de “controlar” una PC moviendo un mouse como un humano. Mientras tanto, Microsoft planea comenzar a permitir que las empresas creen sus propios agentes autónomos de IA a través de su Copilot Studio.
  • Google lanzó nuevas herramientas de inteligencia artificial generativa para crear música.
  • Perplexity se enfrenta a una nueva presión legal en su intento de ganarse a editores y anunciantes (Digiday)
  • Cómo los ejecutivos editoriales están incorporando herramientas de inteligencia artificial generativa en sus flujos de trabajo (Digiday)
  • Mondelēz adopta la IA internamente para intentar reducir los costes de marketing (Digiday)
  • Conferencia de prensa: Los cambios en el tráfico de referencias de búsqueda de este año están dando un duro golpe a los editores (Digiday)
  • Daze, una aplicación de mensajería creativa impulsada por IA para la Generación Z, está explotando antes del lanzamiento (TechCrunch)
  • Las empresas miran más allá de los chatbots para obtener beneficios de la IA (WSJ)
  • Google, Microsoft y Perplexity promueven el racismo científico en los resultados de búsqueda (Wired)

Matti Yahoo, CMO de Fiverr, habla sobre una nueva campaña que se burla de los rumores sobre la IA

Todo el mundo está cansado de oír hablar de la IA, pero Fiverr ahora tiene una nueva canción al estilo Broadway sobre lo cansados ​​que están en realidad. ¿Adivina qué? Fue hecho con IA.

El mercado en línea de servicios independientes ha lanzado una nueva campaña burlándose del actual ciclo de exageración. Hace hincapié en la IA como una herramienta más que como un aceite de serpiente o un ungüento corporativo. El anuncio, llamado “A nadie le importa”, se lanzó la semana pasada y promociona las herramientas de inteligencia artificial que utilizan cada vez más los autónomos, algunos de los cuales emplean varias plataformas de inteligencia artificial generativa en proyectos para una variedad de clientes.

“Lo vemos en nuestro feed, en nuestro feed de LinkedIn y en cualquier red social en la que estés todo el día: IA. AI. IA”, dijo a Digiday el CMO de Fiverr, Matti Yahav. “Por supuesto, la IA es asombrosa. Es una herramienta fantástica. Pero al final lo importante es el resultado. Es el impacto”.

De hecho, el comercial en sí fue creado utilizando casi una docena de herramientas de inteligencia artificial generativa, según Yahav. Para las imágenes, utilizó Midjourney, Ideogram, Leonardo, Flux y Photoshop Generative Fill. Las animaciones se realizaron utilizando Runway Gen3, Kling y Minimax. Lipsyncs y Faceswaps también utilizaron Runway y Kling junto con Liveport.

Fiverr está viendo un mayor interés en proyectos impulsados ​​por IA en la plataforma, dijo Yahav. Si bien el crecimiento varía según el dominio y la industria, dijo que la música y el audio son dos que se han destacado. Piensa que la industria debería dejar de hablar de si algo se hace con IA y, en cambio, hablar más sobre los servicios que impulsa: “¿Sabes qué parte del servicio se hizo con IA? No estoy seguro, pero será el talento humano detrás, consolidando todo, asegurándose de obtener el mejor resultado”.

Si bien la IA está aumentando la productividad para muchos, persisten las preocupaciones sobre la precisión, la calidad y las implicaciones legales. Alrededor del 25% de los autónomos con sede en EE. UU. están preocupados por cuestiones legales, de privacidad y de derechos de autor, al igual que el 50% de los encuestados con sede en el Reino Unido. Fiverr también dijo que tiene barreras de seguridad para evitar el uso indebido de la IA en la plataforma, pero Yahav se negó a revelar mucho sobre cuáles son esas tácticas. (En cambio, un portavoz de la empresa dirigió a Digiday a la página de estándares comunitarios de Fiverr).

Aquí hay algunos otros detalles del nuevo informe de Fiverr sobre las tendencias en el uso de la IA este año en toda la plataforma. Los resultados se basan en una encuesta realizada a 3300 autónomos de Fiverr.

  • Las principales herramientas incluyen ChatGPT (utilizado por el 88% de los encuestados), Midjourney (utilizado por el 37%), Firefly (29%), Quillbot (18%), Hugging Face (18%) y Gemini (15%).
  • El uso de la IA en la industria de la programación y la tecnología ha aumentado del 10% en 2023 al 86% en 2024. La música y el audio han aumentado del 8% en 2023 al 41% este año.
  • La generación de texto y contenido es ahora el tipo más popular de trabajo de Fiverr que utiliza IA (el 40% de los encuestados la usa), mientras que los encuestados la usan en el 19% de los proyectos visuales y artísticos, y se usa en el análisis de datos el 18% del tiempo.
  • Más de un tercio de los autónomos pagan ahora por suscripciones a herramientas de IA, y el total de suscriptores de pago a herramientas de IA aumentará un 10 % con respecto a 2023.
  • Dos tercios de los autónomos dicen que la IA ayuda a aumentar la productividad.

Con información de Digiday

Leer la nota Completa > Informe de IA: SynthID de código abierto de Google Deepmind para marcar el texto generado con marcas de agua

LEAVE A REPLY

Please enter your comment!
Please enter your name here