Mientras los funcionarios gubernamentales exploran formas de frenar la IA generativa, las empresas de tecnología están buscando nuevas formas de elevar su propio nivel antes de que se les imponga.

En las últimas dos semanas, varias empresas tecnológicas importantes centradas en la IA han agregado nuevas políticas y herramientas para generar confianza, evitar riesgos y mejorar el cumplimiento legal relacionado con la IA generativa. Meta requerirá que las campañas políticas revelen cuándo utilizan IA en los anuncios. YouTube está agregando una política similar para los creadores que usan IA en los videos subidos. IBM acaba de anunciar nuevas herramientas de gobernanza de IA. Shutterstock presentó recientemente un nuevo marco para desarrollar e implementar IA ética.

Esos esfuerzos no impiden que los legisladores estadounidenses avancen con propuestas para mitigar los diversos riesgos que plantean los grandes modelos lingüísticos y otras formas de IA. El miércoles, un grupo de senadores estadounidenses presentó un nuevo proyecto de ley bipartidista que crearía nuevos estándares de transparencia y rendición de cuentas para la IA. La “Ley de Investigación, Innovación y Responsabilidad de Inteligencia Artificial de 2023” está copatrocinada por tres demócratas y tres republicanos, incluidos los senadores estadounidenses Amy Klobuchar (D-Minn), John Thune (RS.D.) y otros cuatro.

“La inteligencia artificial conlleva el potencial de generar grandes beneficios, pero también riesgos graves, y nuestras leyes deben mantenerse al día”, dijo Klobuchar en un comunicado. “Esta legislación bipartidista es un paso importante de muchos necesarios para abordar los daños potenciales”.

A principios de esta semana, IBM anunció una nueva herramienta para ayudar a detectar riesgos de IA, predecir posibles preocupaciones futuras y monitorear aspectos como sesgo, precisión, equidad y privacidad. Edward Calvesbert, vicepresidente de gestión de productos de WatsonX, describió el nuevo WatsonX.Governance como el “tercer pilar” de su plataforma WatsonX. Aunque inicialmente se utilizará para los propios modelos de IA de IBM, el plan es ampliar las herramientas el próximo año para integrarlas con LLM desarrollados por otras empresas. Calvesbert dijo que la interoperabilidad ayudará a proporcionar una especie de descripción general de varios modelos de IA.

“Podemos recopilar métricas avanzadas que se generan a partir de estas otras plataformas y luego centralizarlas en WatsonX.governance”, dijo Calvesbert. “Así que tienes ese tipo de vista de torre de control de todas tus actividades de IA, cualquier implicación regulatoria, cualquier monitoreo. [and] alertando. Porque esto no se trata sólo del lado de la ciencia de datos. Esto también tiene un importante aspecto de cumplimiento normativo”.

En Shutterstock, el objetivo también es incorporar la ética a la base de su plataforma de IA. La semana pasada, el gigante de las imágenes de archivo anunció lo que ha denominado un nuevo marco de CONFIANZA, que significa “Capacitación, Regalías, Mejora, Salvaguardias y Transparencia”.

La iniciativa es parte de un esfuerzo de dos años para incorporar la ética a la base de la plataforma de inteligencia artificial del gigante de las imágenes de archivo y abordar una variedad de cuestiones como el sesgo, la transparencia, la compensación de los creadores y el contenido dañino. Los esfuerzos también ayudarán a elevar los estándares para la IA en general, dijo Alessandra Sala, directora senior de IA y ciencia de datos de Shutterstock.

“Es un poco como la industria de la aviación”, dijo Sala. “Se reúnen y comparten sus mejores prácticas. No importa si vuelas con American Airlines o Lufthansa. Los pilotos están expuestos a una formación similar y deben respetar las mismas directrices. La industria impone los mejores estándares que son los mejores de cada actor que contribuye a esa vertical”.

Algunos expertos en IA dicen que la autoevaluación sólo puede llegar hasta cierto punto. Ashley Casovan, directora general del Centro de Gobernanza de IA de la Asociación Internacional de Profesionales de la Privacidad, dijo que la responsabilidad y la transparencia pueden ser más desafiantes cuando las empresas pueden “crear sus propias pruebas y luego verificar sus propios deberes”. Añadió que crear una organización externa para supervisar las normas podría ayudar, pero eso requeriría desarrollar normas acordadas. También requiere desarrollar formas de auditar la IA de manera oportuna que tampoco tenga un costo prohibitivo.

“O escribes la prueba de una manera que sea muy fácil de tener éxito o omites cosas”, dijo Casovan. “O tal vez se darán una A- para demostrar que están trabajando para mejorar las cosas”.

Lo que las empresas deberían y no deberían hacer con la IA también sigue siendo una preocupación para los especialistas en marketing. Cuando cientos de CMO se reunieron recientemente durante la cumbre de Maestros en Marketing de la Asociación de Anunciantes Nacionales, el consenso fue sobre cómo no quedarse atrás con la IA sin correr demasiados riesgos.

“Si dejamos que esto se nos adelante y estamos tratando de ponernos al día, la culpa es nuestra”, dijo Nick Primola, vicepresidente ejecutivo del grupo ANA Global CMO Growth Council. “Y no vamos a hacer eso como industria, como colectivo. Tenemos que liderar, tenemos mucho que aprender de lo digital. [and] social, con respecto a todas las cosas en las que francamente durante los últimos cinco o seis años nos hemos estado poniendo al día. Hemos estado tratando de ponernos al día con la privacidad, con la desinformación, con la seguridad de la marca y con la transparencia para siempre”.

Aunque YouTube y Meta requerirán revelaciones, muchos expertos han señalado que no siempre es fácil detectar qué se genera con IA. Sin embargo, las medidas de Google y Meta son “en general un paso en la dirección correcta”, dijo Alon Yamin, cofundador de Copyleaks, que utiliza IA para detectar texto generado por IA.

Detectar IA es un poco como el software antivirus, dijo Yamin. Incluso si se cuenta con herramientas, no podrán captarlo todo. Sin embargo, escanear transcripciones de videos basadas en texto podría ayudar, además de agregar formas de autenticar los videos antes de cargarlos.

“Realmente depende de cómo sean capaces de identificar personas o empresas que en realidad no afirman que están utilizando IA, incluso si lo hacen”, dijo Yamin. “Creo que debemos asegurarnos de contar con las herramientas adecuadas para detectarlo y asegurarnos de que podemos responsabilizar a las personas de las organizaciones por la difusión de datos generados sin reconocerlo”.

Con información de Digiday

Leer la nota Completa > A medida que se avecinan regulaciones sobre IA, las empresas de tecnología añaden nuevas formas de mejorar sus estándares

LEAVE A REPLY

Please enter your comment!
Please enter your name here