El miércoles, los legisladores de EE. UU. profundizaron en las implicaciones de la inteligencia artificial generativa en las protecciones de los derechos de autor, destacando preguntas tanto a corto como a largo plazo sobre cómo las empresas tecnológicas recopilan datos para entrenar a la IA y generar contenido basado en ella.

La audiencia, la tercera de una serie celebrada por el Comité Judicial del Senado, sigue a debates anteriores de mayo y junio, que se centraron en otros aspectos de la IA y la propiedad intelectual, como la ley de derechos de autor, la innovación y la competencia.

Una de las áreas clave de discusión se centró en si se debe exigir a las empresas que permitan a los usuarios optar por que sus datos no se utilicen para entrenar modelos de IA. Ben Brooks, jefe de políticas públicas de Stability AI, dijo que la startup ya ha recibido más de 160 millones de solicitudes de exclusión voluntaria de personas que no quieren que sus imágenes se utilicen en sus modelos de IA.

Sin embargo, cuando el senador Chris Coons preguntó si Stability AI paga a las personas que permiten que la empresa use sus datos, Brooks evitó una respuesta directa y, en cambio, eligió señalar que es importante tener un gran conjunto de datos.

“Para que eso funcione, es importante tener esa diversidad”, dijo Brooks.

La discusión también surge cuando las empresas de tecnología enfrentan nuevos desafíos legales. Esta semana, se presentó una demanda colectiva contra Google que afirmaba que el gigante tecnológico violó las leyes estatales y federales de derechos de autor y privacidad al desarrollar sus productos de IA. La queja se produce menos de un mes después de que OpenAI recibiera una demanda separada pero similar de la misma empresa. A principios de este año, Stability AI fue demandada por Getty Images, que afirmó que la startup usó incorrectamente millones de sus imágenes para entrenar sus modelos de IA.

Los ejecutivos de las empresas de inteligencia artificial que testificaron dijeron que sus modelos de inteligencia artificial están capacitados en función del contenido que se considera “uso justo”. Sin embargo, la senadora Marsha Blackburn dijo que las protecciones de “uso justo” se han convertido en una “manera bastante útil de robar” la propiedad intelectual. Otro miembro del comité, la senadora Amy Klobuchar, sugirió que los legisladores deberían considerar prohibir el contenido generado por IA para algunos usos y citó preocupaciones sobre cómo la IA podría usarse para crear información errónea sobre anuncios políticos. (Vale la pena señalar que los dos senadores se oponen en prácticamente todos los demás temas).

Los expertos en inteligencia artificial dicen que es difícil eliminar contenido de modelos de lenguaje grandes después de que ya se haya utilizado como datos de entrenamiento. También es difícil para las personas optar por no compartir datos a menos que ya sepan lo que se ha optado, señaló Jeffrey Harleston, asesor general y vicepresidente ejecutivo de asuntos comerciales y legales de Universal Music Group. Él cree que las empresas deberían obtener el consentimiento antes de usar contenido para entrenar la IA, y agrega que algunos artistas no quieren que su música se distribuya por razones que van más allá de la comercialización.

“La creatividad es la banda sonora de nuestras vidas”, dijo Harleston. “Y sin los fundamentos de los derechos de autor, es posible que nunca los hubiéramos conocido”.

Matthew Sag, un experto en IA de la Facultad de Derecho de Emory, dijo que estaba “bastante alarmado” porque la discusión se centró en las protecciones comerciales sin centrarse en las personas comunes que todavía quieren protección contra falsificaciones profundas y otro contenido de IA.

Una sugerencia fue una nueva “ley contra la suplantación de identidad” para proteger a los artistas de ser suplantados por AI, que fue propuesta por Dana Rao, vicepresidente ejecutivo y asesor general de Adobe. Durante sus comentarios de apertura, Rao, que supervisa los equipos legales y de políticas de la compañía, dijo que la ley debería incluir daños estatutarios para que los artistas no tengan que probar los daños reales. (Adobe y otras empresas buscan crear nuevos estándares para la IA generativa a través de organizaciones como Content Authenticity Initiative, que ahora cuenta con más de 1500 miembros, incluidos Stability AI, Universal Music Group y Getty Images).

Karla Ortiz, una artista conceptual y desarrolladora visual cuyo trabajo incluye a Black Panther, Guardians of the Galaxy y Doctor Strange, representó a los artistas afectados por la IA. Durante su testimonio, Ortiz recuerda estar “horrorizada” después de saber cómo sus diseños ayudaron a entrenar modelos de IA y que “nunca se preocupó por mi futuro como artista hasta ahora”. (Ortiz ha demandado a Stability AI en el pasado).

“Descubrí que casi la totalidad de mi trabajo, el trabajo de casi todos los artistas que conozco y el trabajo de cientos de miles de artistas han sido tomados sin nuestro consentimiento, crédito o compensación”, dijo. “Estas obras fueron robadas y utilizadas para entrenar tecnologías con fines de lucro con conjuntos de datos que contienen miles de millones de pares de datos de imágenes y texto”.

https://digiday.com/?p=510895

Con información de Digiday

Leer la nota Completa > Los legisladores de EE. UU. se centran en cuestiones de derechos de autor en torno al impacto de la IA en la propiedad intelectual

LEAVE A REPLY

Please enter your comment!
Please enter your name here