En un nuevo informe de Mozilla, los investigadores sugieren que los métodos populares para divulgar y detectar contenido de IA no son lo suficientemente efectivos para prevenir riesgos relacionados con la desinformación generada por la IA. En un análisis publicado hoy, los investigadores señalan que las barreras de seguridad actuales utilizadas por muchos proveedores de contenido de IA y plataformas de redes sociales no son lo suficientemente fuertes para combatir a los actores maliciosos. Junto con los métodos “de cara humana”, como etiquetar el contenido de IA con advertencias visuales o audibles, los investigadores analizaron métodos de marcas de agua legibles por máquinas, incluido el uso de criptografía, la incorporación de metadatos y la adición de patrones estadísticos.

Existen riesgos inherentes relacionados con el contenido escalado generado por IA que se cruza con la dinámica de distribución actual de Internet. Centrarse en soluciones técnicas podría distraer la atención de solucionar problemas sistémicos más amplios, como los anuncios políticos muy dirigidos, según Mozilla, que también señaló que la autodivulgación no es suficiente.

“Las redes sociales, una infraestructura clave para la circulación de contenidos, aceleran y amplifican su impacto”, escribieron los autores del informe. “Además, el problema bien documentado de las plataformas de redes sociales que incentivan algorítmicamente el contenido emocional y agitador podría conducir a una priorización de la distribución de contenido sintético, creando un efecto de ‘duplicación'”.

Según Mozilla, el mejor enfoque es una combinación de agregar soluciones técnicas y más transparencia, al mismo tiempo que se mejora la alfabetización mediática y se aprueban regulaciones. Mozilla también mencionó la Ley de Servicios Digitales (DSA) de la Unión Europea, describiéndola como un “enfoque pragmático” que requiere que las plataformas implementen medidas sin prescribir soluciones específicas a seguir.

En lugar de depender de marcas de agua, algunas empresas están creando sus propias herramientas para detectar deepfakes generados por IA y otra información errónea. Pindrop, un proveedor de seguridad de audio de IA, ha desarrollado una nueva herramienta para detectar audio de IA basada en patrones encontrados en llamadas telefónicas. La herramienta, lanzada la semana pasada, se creó con un conjunto de datos de 20 millones de clips de audio de IA analizados a través de más de 100 herramientas diferentes de conversión de texto a voz. Pindrop es conocido por detectar la reciente llamada automática deepfake que se parece al presidente Joe Biden y también descubrió un audio deepfake que se parece a Anthony Bourdain utilizado en el documental de 2021 “Roadrunner”.

La tecnología busca anomalías en el audio para distinguir si una llamada está en vivo o grabada, dijo el cofundador y director ejecutivo de Pindrop, Vijay Balasubramaniyan. Por ejemplo, Pindrop busca características espaciales que se encuentran en el lenguaje humano, como las fricativas, que no se replican fácilmente mediante grabaciones. También busca anomalías temporales como la forma de un sonido emitido por una boca que dice “hola” o la velocidad de una palabra como “pelota”.

Aunque Pindrop afirma tener una alta tasa de precisión, Balasubramaniyan sabe que es un “juego del gato y el ratón”, y agrega que la clave es la rapidez con la que las empresas pueden reaccionar cuando los actores malintencionados utilizan herramientas más nuevas y mejores. También señaló que la transparencia y la explicabilidad de las herramientas de IA también son clave.

“Un sistema deepfake suena como un gran monolito, pero está compuesto por muchos motores individuales”, dijo Balasubramaniyan a Digiday. “Y cada uno de estos motores deja características reveladoras… Es necesario poder diseccionar un motor deepfake en partes realmente granulares y ver qué firmas deja cada una de esas partes granulares. Entonces, incluso si se cambia una parte, las demás todavía se conservan”.

Con una oferta pública inicial en prosa, Reddit apuesta por los LLM

Cuando Reddit presentó la documentación la semana pasada para su propuesta de IPO, la compañía también reveló parte de sus planes para utilizar grandes modelos de lenguaje y sacar provecho de ellos.

En presentaciones corporativas ante los reguladores estadounidenses, Reddit dijo que su enorme contenido de usuario ayudará a entrenar grandes modelos lingüísticos. Reddit tenía más de “mil millones de publicaciones y más de 16 mil millones de comentarios” a finales de 2023, según el documento. Esos datos podrían usarse para entrenar modelos internos, pero también se usarán como parte de acuerdos de licencia de datos con otras empresas.

“Los datos de Reddit son una pieza fundamental para la construcción de la tecnología de inteligencia artificial actual y muchos LLM”, según el S-1 de Reddit. “Creemos que el enorme corpus de datos y conocimientos conversacionales de Reddit seguirá desempeñando un papel en la formación y mejora de los LLM. A medida que nuestro contenido se actualiza y crece diariamente, esperamos que los modelos quieran reflejar estas nuevas ideas y actualizar su capacitación utilizando datos de Reddit”.

La semana pasada, Reddit también anunció un nuevo acuerdo con Google, que utilizará el contenido de Reddit para entrenar sus modelos de IA. Aunque no compartió los términos del acuerdo, Reuters informó que Google pagará 60 millones de dólares por el acceso a su contenido. S1 de Reddit también señaló que la compañía espera que los ingresos por licencias de datos en 2024 sean un “mínimo de 66,4 millones de dólares”.

Chatbots como ChatGPT, Gemini y Anthropic también podrían competir con la plataforma principal de Reddit, dijo la compañía: “Los Redditors pueden optar por buscar información utilizando LLM, que en algunos casos pueden haber sido capacitados utilizando datos de Reddit, en lugar de visitar Reddit directamente”.

La presentación de la oferta pública inicial de Reddit también proporciona mucha información sobre el negocio publicitario de la empresa, que representa la mayor parte de sus ingresos. En 2023, los ingresos ascendieron a 804 millones de dólares, un aumento del 21 % con respecto a los 667 millones de dólares de 2022.

Indicaciones y productos: Otras noticias y anuncios sobre IA

  • Google dijo que llevará sus modelos Gemini a Performance Max. Además de mejorar la generación de imágenes, Gemini también permitirá a los anunciantes generar titulares largos y enlaces a sitios. Otra característica próxima permitirá a los anunciantes generar imágenes de estilo de vida a través de Performance Max junto con variaciones para campañas escaladas. Google también enfrentó críticas la semana pasada cuando el generador de imágenes de Gemini creó imágenes que mostraban a personas de color vistiendo uniformes de la era nazi. (Google detuvo la herramienta y en una publicación de blog sobre el tema prometió “hacerlo mejor”).
  • Los investigadores de Newsguard dijeron que han encontrado más de 700 sitios web generados por IA disfrazados de “noticias”. Según Newsguard, los sitios web publican información errónea y otros contenidos dañinos en 15 idiomas. Muchos también se benefician de los anuncios programáticos.
  • Brave, el navegador centrado en la privacidad, agregó más formas para que su asistente de inteligencia artificial “Leo” ayude a los usuarios a leer archivos PDF, analizar archivos de Google Drive y transcribir videos de YouTube. Las actualizaciones llegaron apenas un día después de que Adobe agregara un nuevo asistente de inteligencia artificial a Acrobat y Reader para ayudar a generar resúmenes, analizar documentos y encontrar respuestas.
  • Pfizer habló con Digiday sobre cómo desarrolló una nueva plataforma de marketing de IA generativa llamada “Charlie”, que fue desarrollada en asociación con Publicis Groupe y lleva el nombre del fundador del gigante farmacéutico.
  • Según VentureBeat, un grupo de pioneros de la tecnología publicitaria tiene una nueva startup de inteligencia artificial para editores.

Entrada/salida: Pregunta de la semana

Resultado: A medida que las empresas de tecnología construyen sus propios grandes modelos lingüísticos y diversas herramientas de inteligencia artificial relacionadas, los modelos de código abierto también desempeñan un papel clave más allá de las plataformas cerradas. Tras el debut de Meta en 2023 de su Llama 2 de código abierto, Google presentó la semana pasada sus propios modelos de código abierto llamados Gemma.

Entrada: si está utilizando modelos de código abierto para su uso en marketing, medios o comercio, envíe un correo electrónico a marty@digiday.com para informarnos.

Con información de Digiday

Leer la nota Completa > Informe de IA: poner marcas de agua en el contenido de IA no es suficiente, advierten los investigadores

LEAVE A REPLY

Please enter your comment!
Please enter your name here