Para ilustrar los peligros de la IA generativa, el senador Richard Blumenthal comenzó la audiencia del Congreso de ayer sobre la supervisión de la IA con algo inesperado de un alto funcionario del gobierno: una grabación de audio falsa de sí mismo hablando sobre los riesgos de la IA y la necesidad de regularla.
El clip generado por IA se basó en grabaciones de los discursos de piso de Blumenthal y luego se escribió en base a preguntarle a ChatGPT cómo podría abrir una audiencia sobre la regulación de IA.
“Con demasiada frecuencia, hemos visto lo que sucede cuando la tecnología supera la regulación”, dijo la voz generada por IA de Blumenthal. “La explotación desenfrenada de datos, la proliferación de desinformación y la profundización de las desigualdades sociales. Hemos visto cómo los sesgos algorítmicos pueden perpetuar la discriminación y los prejuicios y cómo la falta de transparencia puede socavar la confianza pública. Este no es el futuro que queremos”.
En la audiencia del Comité Judicial del Senado de EE. UU., los legisladores pasaron varias horas el martes interrogando a los principales expertos sobre la IA generativa, los riesgos y cómo regularla. La audiencia también marcó la primera aparición frente al Congreso del CEO de OpenAI, Sam Altman, quien testificó junto a Christina Montgomery, directora de privacidad y confianza de IBM, experta en inteligencia artificial y profesora de la Universidad de Nueva York, Gary Marcus.
Los legisladores se turnaron para expresar sus preocupaciones sobre la privacidad de los datos, la manipulación electoral, la infracción de derechos de autor y la pérdida de empleos. También pidieron a los testigos que opinaran sobre lo que veían como amenazas potenciales mientras buscaban respuestas sobre lo que los reguladores y las propias empresas deberían hacer para mitigarlas.
La audiencia también mostró cómo los legisladores han estado experimentando por su cuenta para comprender la tecnología y sus riesgos. La senadora Marsha Blackburn dijo que usó ChatGPT para escribir la letra de una canción al estilo del músico country Garth Brooks y preguntó sobre cuestiones de derechos de autor, como quién posee los derechos del material generado por IA. La senadora Amy Klobuchar, quien descubrió que ChatGPT generó una dirección falsa cuando solicitó un lugar de votación en Minnesota, también expresó su preocupación sobre cómo la IA afectará a las organizaciones de noticias.
Altman dijo que cree que los creadores de contenido y los propietarios de contenido “necesitan beneficiarse de esta tecnología”, y agregó que todavía están hablando con la gente sobre cuál será el modelo económico.
“A menos que comience a compensar todo, desde películas, libros, pero también contenido de noticias, vamos a perder productores de contenido realista”, dijo Klobuchar. “Por supuesto, hay una exención para los derechos de autor y la sección 230, pero creo que pedirles a los periódicos pequeños que salgan y demanden todo el tiempo no puede ser la respuesta. No van a poder seguir el ritmo”.
Altman dijo que pensaba que los usuarios de ChatGPT hasta ahora sabían que necesitaban verificar lo que crean los chatbots. Sin embargo, le preocupa lo que sucederá a medida que mejoren los modelos y “los usuarios puedan tener cada vez menos su propio proceso de pensamiento discriminatorio a su alrededor”.
“Me emociona un mundo en el que las empresas publiquen con las modelos la información sobre cómo se comportan, dónde están las imprecisiones y las agencias o empresas independientes también la proporcionen”, dijo Altman.
Otro tema clave de discusión fue la transparencia en torno a los modelos de IA. Los legisladores también preguntaron si el contenido generado por IA debería venir con “etiquetas nutricionales” o tarjetas de puntuación creadas por agencias independientes que expliquen si se puede confiar o no en el consentimiento. Sin embargo, Marcus dijo que todavía no existen algunas herramientas para regular la IA.
Todavía no está muy claro cómo podría ser la regulación. Marcus sugirió que debería haber una agencia del gobierno de EE. UU. centrada a tiempo completo en regular la IA y también una agencia internacional para gobernar la tecnología a nivel mundial. Altman mencionó que ya hay algún precedente en otras industrias, como la Agencia Internacional de Energía Atómica para la energía nuclear.
En un momento de la audiencia, el senador John Kennedy pidió a los tres expertos en IA ejemplos de leyes que promulgarían si fueran “reyes o reinas por un día”. Montgomery dijo que se centraría en las reglas para la IA en varios contextos. Marcus sugirió un proceso de revisión de seguridad como el de la Administración de Drogas y Alimentos. Altman mencionó que una agencia independiente podría realizar auditorías y emitir licencias para empresas de IA.
Durante la audiencia, la publicidad solo apareció un puñado de veces, pero es algo que los expertos esperan que se convierta en un problema mayor con el tiempo. Según Marcus de NYU, la publicidad hiperdirigida que utiliza IA generativa “definitivamente va a llegar”, posiblemente a través de modelos de IA de código abierto desarrollados por otros más allá de OpenAI.
Altman dijo que la decisión de OpenAI de no depender de los ingresos por publicidad para su modelo de negocio es la razón por la que no tiene que intentar “hacer que la gente lo use cada vez más”. Sin embargo, cuando el senador Cory Booker preguntó si OpenAI alguna vez consideraría los anuncios, Altman dijo: “No diría que nunca”.
“Puede haber personas a las que queremos ofrecerles servicios y no hay otro modelo que funcione”, dijo Altman. “Pero realmente me gusta tener un modelo basado en suscripción”.
Los legisladores también dijeron que quieren asegurarse de no repetir los errores del pasado, como esperar demasiado para regular las principales redes sociales. Por ejemplo, el senador Alex Padilla mencionó cómo las empresas no han invertido lo suficiente en la moderación de contenido para idiomas distintos del inglés. Otros, incluido el senador Jon Ossoff, dijeron que quieren asegurarse de que los niños estén protegidos de la tecnología.
“Lo que hemos visto repetidamente es que las empresas cuyos ingresos dependen del volumen de uso, el tiempo de pantalla, la intensidad del uso, diseñan estos sistemas para maximizar la participación de todos los usuarios”, dijo Ossoff. “Incluyendo a los niños, con peores resultados en muchos casos. Y lo que les aconsejaría humildemente es que se adelanten mucho a este problema… Otros en este subcomité y yo miraremos muy severamente el despliegue de tecnología que dañe a los niños”.
Con información de Digiday
Leer la nota Completa > En la primera audiencia de IA del Senado, los legisladores y OpenAI, los ejecutivos de IBM sopesan el riesgo y la regulación