El Comité de Comercio del Senado de Estados Unidos celebró el jueves una audiencia para abordar una serie de preocupaciones sobre la intersección de la IA y la privacidad. Si bien algunos legisladores expresaron su preocupación por el hecho de que la IA acelere los riesgos (como la vigilancia en línea, las estafas, los anuncios hiperdirigidos y las prácticas comerciales discriminatorias), otros advirtieron que las regulaciones podrían proteger aún más a los gigantes tecnológicos y ser una carga para las empresas más pequeñas.
Según la senadora estadounidense Maria Cantwell (D-Wash.), los riesgos de la IA podrían acelerar los riesgos para los consumidores relacionados con las redes sociales y la publicidad digital. Así como el crecimiento de los anuncios en línea fue impulsado por los datos, a Cantwell le preocupa que las empresas de tecnología entrenen modelos de inteligencia artificial con datos confidenciales y utilicen esa información contra los consumidores. Dijo que, según se informa, un restaurante en su estado natal estaba dando reservas basándose en datos sobre los ingresos de un huésped potencial.
“Si realmente no tienen suficiente dinero para comprar una botella de vino, le dan la reserva a otra persona”, dijo Cantwell. “Sin una ley de privacidad sólida, cuando se agotan los datos públicos, nada les impide usar nuestros datos privados… Me preocupa mucho que la capacidad de recopilar grandes cantidades de datos personales sobre individuos y crear inferencias sobre ellos rápidamente a muy buen ritmo. “El bajo costo puede usarse de manera dañina, como cobrar a los consumidores precios diferentes por el mismo producto”.
Cantwell y otros legisladores también esperan aprobar nuevos estándares federales de transparencia para proteger la propiedad intelectual y proteger contra diversos riesgos del contenido generado por IA. El jueves, Cantwell y los senadores Marsha Blackburn (R-Tenn.) y Martin Heinrich (DN.M) presentaron una nueva legislación bipartidista para proteger a los editores, actores y otros artistas y al mismo tiempo mitigar los riesgos de desinformación generada por IA, llamada la Ley COPIED: abreviatura de Ley de protección e integridad del origen del contenido de los medios editados y falsificados.
La Ley COPIED haría que el Instituto Nacional de Estándares y Tecnología (NIST) desarrollara estándares de transparencia para los modelos de IA y creara estándares para la procedencia del contenido, incluida la detección y marca de agua de contenido sintético, y elaborara nuevos estándares de ciberseguridad que prohibieran a cualquiera alterar los datos de procedencia del contenido. El proyecto de ley también prohibiría a las empresas de IA utilizar contenido protegido para entrenar modelos de IA o generar contenido sin permiso, permitiría a individuos y empresas demandar a los infractores y facultaría a la Comisión Federal de Comercio y a los fiscales generales estatales para hacer cumplir las regulaciones.
Según Blackburn, las regulaciones de privacidad y la legislación como la Ley COPIED son más importantes que nunca para ayudar a las personas a protegerse. Dijo que también se necesitan propuestas como la Ley No Fakes para proteger a las personas contra ser víctimas de deepfakes de IA. “¿A quién pertenece tu tú virtual?” ella posó.
Importantes organizaciones ya han respaldado la Ley COPIED, incluidas News/Media Alliance, National Newspaper Association, National Broadcasters Association, SAG-AFTRA, Nashville Songwriters y Recording Academy. Según el texto del proyecto de ley, la Ley COPIED se aplicaría a plataformas que incluyen empresas de redes sociales, motores de búsqueda, plataformas de contenido y otras empresas tecnológicas que generan más de 50 millones de dólares en ingresos anuales y que han tenido al menos 25 millones de usuarios durante más de tres meses. .
Uno de los peritos que testificó en la audiencia del jueves fue Ryan Calo, profesor de derecho en la Universidad de Washington y cofundador del UW Tech Policy Lab. Afirmó que las empresas ya han explorado el uso de datos de clientes para cobrar diferentes precios, y citó ejemplos como Amazon cobrando más a los clientes que regresan y Uber cotizando a los usuarios precios más altos si la batería de su teléfono celular estaba baja. “Este es el mundo en el que se utiliza la IA para extraer el excedente del consumidor, y no es un buen mundo. Y es algo que la minimización de datos podría abordar”, afirmó.
Calo y otros testigos dijeron que las nuevas leyes sobre minimización de datos podrían ayudar a proteger a los consumidores de la recopilación, el intercambio y el uso indebido de sus datos. Udbhav Tiwari, director de política global de productos de Mozilla, dijo que diseñar características de privacidad en modelos de IA desde el principio podría ayudar. Otro testigo, Amba Kak, codirector ejecutivo del AI Now Institute, advirtió que algo tan sutil como el tono de voz de alguien podría usarse para predecir diferentes resultados.
“No es necesario ser clarividente para pensar que todos los caminos pueden llevarnos a las mismas tecnologías publicitarias que nos trajeron hasta aquí”, dijo Kak. “Este es el momento de actuar”.
Sin leyes federales de privacidad de datos, es imposible que las personas sepan quién tiene sus datos y cómo se utilizan, dijo la senadora Jacky Rosen (demócrata por Nevada). Sin regulaciones uniformes, afirmó, “la cadena de suministro de datos está llena de lagunas”.
Algunos legisladores advirtieron que las regulaciones sobre IA podrían dañar involuntariamente a las pequeñas empresas. Otro perito, Morgan Reed, presidente de ACT | La App Association, que representa a miles de desarrolladores y fabricantes de dispositivos conectados, dijo que una ley de privacidad estadounidense facilitaría el cumplimiento de las pequeñas empresas sin tener que navegar por el creciente número de leyes de privacidad estatales. Reed dijo que no son sólo las pequeñas empresas de tecnología las que se ven afectadas por las leyes de privacidad e inteligencia artificial, sino también las pequeñas empresas que utilizan la tecnología.
“La realidad es que las pequeñas empresas han sido las que han adoptado más rápidamente [of AI]”, dijo Reed. “Más del 90% de mis miembros utilizan hoy herramientas de IA generativa con un aumento promedio del 80% en la productividad. Y nuestros miembros que desarrollan esas soluciones son más ágiles que sus rivales más grandes… Sus experiencias deberían desempeñar un papel importante a la hora de informar a los responsables políticos sobre cómo se deberían aplicar las nuevas leyes al desarrollo y uso de la IA”.
El senador estadounidense Ted Cruz, republicano por Texas, fue uno de los miembros del comité que advirtió contra las regulaciones radicales sobre IA. Durante sus comentarios de apertura en la audiencia, Cruz reconoció la necesidad de leyes federales de privacidad e inteligencia artificial, pero dijo que las regulaciones deberían centrarse más en abordar cuestiones específicas. Un ejemplo es la Ley Take It Down, un proyecto de ley bipartidista que él copatrocina con la senadora estadounidense Amy Klobuchar, demócrata por Minnesota. La legislación, presentada el mes pasado, apuntaría a los malos actores que crean y publican deepfakes explícitos de personas reales generados por IA.
“Nuestro objetivo no debería ser aprobar ningún estándar uniforme de privacidad de datos, sino el estándar correcto que proteja la privacidad sin impedir la innovación tecnológica estadounidense”, dijo Cruz.
Avisos y productos: noticias y anuncios sobre IA
- AWS y Writer presentaron nuevas herramientas para sus plataformas independientes para hacer que las aplicaciones de IA generativa de nivel empresarial sean más fáciles de crear y, con suerte, más precisas.
- Ebay presentó nuevas herramientas publicitarias que incluyen recomendaciones de campañas generadas por inteligencia artificial basadas en las tendencias del mercado.
- El Comité Judicial de la Cámara acusó a la Alianza Global para Medios Responsables (GARM) de violaciones antimonopolio, alegando que GARM utilizó su influencia en el mercado para desviar a los anunciantes de las plataformas de derecha.
- El Departamento de Justicia de Estados Unidos anunció los resultados de una investigación que alega que actores rusos utilizaron imágenes y textos generados por inteligencia artificial para difundir información errónea en plataformas de redes sociales, incluida X (Twitter).
- Microsoft ha renunciado a su puesto en el consejo de OpenAI, mientras que Apple ha abandonado sus planes de ocupar un puesto de observador en el consejo.
- Omnicom presentó una nueva plataforma de contenido de inteligencia artificial llamada ArtBotAI que utiliza grandes modelos de lenguaje para ayudar a los especialistas en marketing a optimizar los activos creativos para las campañas.
- Anthropic presentó una nueva forma de permitir a los desarrolladores experimentar con indicaciones al crear plataformas de IA generativa con los modelos Claude AI de la startup.
Otras historias de todo Digiday:
Con información de Digiday
Leer la nota Completa > Informe de AI: los senadores proponen nuevas regulaciones para la privacidad, la transparencia y la protección de los derechos de autor