El impacto potencial de la IA en la privacidad de los datos y la propiedad intelectual ha sido un tema candente durante meses, pero las nuevas demandas presentadas contra OpenAI tienen como objetivo abordar ambos problemas en los tribunales de California.
En un caso de demanda colectiva presentado la semana pasada, los abogados alegan que OpenAI violó las leyes estatales y federales de derechos de autor y privacidad al recopilar los datos utilizados para entrenar los modelos de lenguaje utilizados en ChatGPT y otras aplicaciones generativas de IA. Según la denuncia, OpenAI supuestamente robó datos personales de las personas raspando Internet y varias aplicaciones, incluidas Snapchat, Spotify y Slack, e incluso la plataforma de salud MyChart.
En lugar de centrarse solo en la privacidad de los datos, la queja, presentada por el bufete de abogados Clarkson, también alega que OpenAI ha violado las leyes de derechos de autor, lo que sigue siendo un área gris legal en varios frentes. Las protecciones de propiedad intelectual también son el foco de una demanda separada presentada por una firma diferente la semana pasada en un caso que afirma que OpenAI usó indebidamente las obras de dos autores estadounidenses mientras capacitaba a ChatGPT.
“Debido a que esto avanza a un ritmo exponencial y cada día que pasa se enreda cada vez más con nuestra forma de vida, es importante que los tribunales aborden estos problemas antes de que nos enredemos demasiado y lleguemos al punto de no retorno”, Clarkson Law El socio gerente de la firma, Ryan Clarkson, le dijo a Digiday. “Todavía estamos tratando de aprender nuestras lecciones de las redes sociales y las externalidades negativas de eso, y esto está vertiendo combustible para cohetes sobre esos problemas”.
La demanda presentada por Clarkson no nombra directamente a los demandantes, pero incluye las iniciales de más de una docena de personas. La firma también está buscando activamente a más demandantes para que se unan al caso de demanda colectiva e incluso ha creado un sitio web donde las personas pueden compartir más información sobre cómo han usado varios productos de IA, incluidos ChatGPT, el generador de imágenes de OpenAI DALL-E y el imitador de voz. VALL-E, o productos de IA de otras empresas como Google y Meta.
OpenAI, cuya tecnología ya se usa en plataformas publicitarias como la búsqueda Bing de Microsoft y en una nueva API de anuncios de chat para editores, no respondió a la solicitud de comentarios de Digiday. Sin embargo, la política de privacidad, actualizada por última vez el 23 de junio, dice que la compañía no “vende” ni “comparte” información personal para publicidad transcontextual y no “recopila a sabiendas” información personal de niños menores de 13 años. OpenAI también tiene una política de privacidad separada. política para empleados, solicitantes, contratistas e invitados actualizada en febrero. En esos términos, la compañía dijo que no ha “vendido o compartido su información personal con fines publicitarios dirigidos en los 12 meses anteriores”, mientras que también dice en otra sección que los usuarios tienen derecho a optar por no recibir “publicidad conductual de contexto cruzado”. .”
En la denuncia de Clarkson, los abogados también alegan que OpenAI ha violado las leyes de privacidad al recopilar y compartir datos para publicidad, incluida la orientación a menores y personas vulnerables con publicidad depredadora, discriminación algorítmica y “otros actos no éticos y dañinos”. Tracey Cowan, otra socia de Clarkson involucrada en el caso de OpenAI, dijo que la firma representa a varios demandantes menores que están preocupados porque la tecnología de inteligencia artificial se está implementando sin las medidas de protección adecuadas para los niños. Dijo que eso plantea un conjunto diferente de problemas de las preocupaciones relacionadas con la invasión de la privación para los adultos.
“Realmente pone de relieve los peligros que pueden surgir con tecnologías no reguladas y no probadas”, dijo Cowan. “Presentar los reclamos contra menores es muy importante para explicar por qué creemos que es tan importante establecer algunas medidas de seguridad en torno a esta tecnología, obtener cierta transparencia sobre cómo las empresas están tomando nuestra información, cómo se está utilizando y obtener alguna compensación en el lugar. para asegurarse de que las personas estén de acuerdo”.
Los desafíos legales surgen cuando la industria de la IA se enfrenta a un mayor escrutinio. A fines de la semana pasada, la Comisión Federal de Comercio de EE. UU. también publicó una nueva publicación de blog que sugiere que la IA generativa plantea “preocupaciones de competencia” relacionadas con datos, talento, recursos informáticos y otras áreas. La Unión Europea está avanzando con una propuesta para regular la IA con la “Ley de IA”, lo que incita a los ejecutivos de más de 150 empresas a enviar una carta abierta a la Comisión Europea advirtiendo que las regulaciones podrían ser ineficaces y dañar la competencia. Los legisladores en los EE. UU. también están explorando la posibilidad de regular.
A pesar del panorama legal y regulatorio incierto y en evolución, más especialistas en marketing están avanzando y ven a la IA como algo más que una tendencia novedosa y algo que podría impactar significativamente en muchas áreas de negocios. Sin embargo, eso no significa que muchos no sigan sugiriendo que las empresas experimenten y, al mismo tiempo, tengan cuidado.
En la agencia The Social Lights, con sede en Minneapolis, el director creativo y de estrategia Greg Swan dijo que ha estado asesorando a equipos que quieren probar herramientas generativas de inteligencia artificial para asegurarse de que no copien y peguen contenido generativo directamente en los materiales de marketing.
“Tiendo a pensar en la IA y en toda esta industria como un adolescente precoz que piensa que necesita todo y las reglas del camino, pero aún necesita la supervisión de un adulto”, dijo Swan. “Es increíblemente difícil saber dónde ha estado la línea entre la inspiración y el robo, y al igual que con todos los resultados de marketing, el material de origen es importante, el plagio es importante, la compensación equitativa para los creadores es importante, la seguridad de la marca es importante”.
En lugar de extraer datos sin permiso, algunas nuevas empresas de IA están adoptando un enfoque alternativo para sus procesos. Por ejemplo, Bria, con sede en Israel, solo entrena sus herramientas visuales de IA con contenido para el que ya tiene licencias de uso. Es más costoso pero menos riesgoso, y un proceso que la compañía espera que valga la pena. (Los socios de Bria incluyen Getty Images, que demandó a Stability AI a principios de este año por supuestamente robar 12 millones de imágenes y usarlas para entrenar su generador de arte de IA de código abierto sin permiso).
“Los mercados responderán más rápido que el sistema legal”, dijo Vered Horesh, jefe de asociaciones estratégicas de IA de Bria. “Y cuando respondan, obligará a las empresas de IA a actuar de manera más responsable… Es bien sabido que los modelos ya no son un foso. Los datos son el foso”.
Con información de Digiday
Leer la nota Completa > A medida que aumenta la presión regulatoria para la inteligencia artificial, nuevas demandas quieren llevar a OpenAI a los tribunales