Hay una carrera mundial por la inteligencia artificial y, hasta ahora, Estados Unidos parece estar a la cabeza.
Esto se debe en parte a que los estados albergan grandes empresas de tecnología como OpenAI, Microsoft, Google y Meta. Pero también se debe a la falta de legislación federal. Hasta ahora, la única legislación que existe en torno a la IA es la Ley Local 144 de la ciudad de Nueva York, que exige que se realice una auditoría de sesgo en los procesos de contratación automatizados. Otros estados, como California y Nueva Jersey, no se quedan atrás en la creación de sus propias versiones de legislación estatal.
La Casa Blanca ha emitido una Orden Ejecutiva sobre IA segura y confiable y un plan para una Declaración de Derechos de la IA. La Comisión de Igualdad de Oportunidades en el Empleo (EEOC) también ha sido estricta al decir que continuará respetando el Título VII de la Ley de Derechos Civiles, que se centra en prevenir la discriminación contra los solicitantes de empleo y los trabajadores, ya sea que el riesgo provenga de un humano o de un robot.
He aquí un vistazo a cómo se comparan los enfoques regulatorios adoptados en EE. UU. y la Unión Europea.
El enfoque precautorio de la UE
En general, está claro que los estados tienen un enfoque más descentralizado y sectorial para la regulación de la IA. Al otro lado del Atlántico, la UE ha adoptado una estrategia más integral y preventiva. Esto está plasmado en la Ley de IA de la UE, que se aprobó en junio de 2023 y debe estar finalizada antes de las elecciones al Parlamento Europeo en junio de 2024. Esta ley clasificaría los sistemas de IA por nivel de riesgo y exigiría regulaciones según la categoría en la que se encuentren.
La legislación se centra en cinco prioridades principales: el uso de la IA debe ser seguro, transparente, rastreable, no discriminatorio y respetuoso con el medio ambiente. La legislación también exige que los sistemas de IA sean supervisados por personas y no por automatización, establece una definición uniforme y neutral desde el punto de vista tecnológico de lo que constituye IA, y se aplicaría a los sistemas que ya se han desarrollado, así como a los sistemas de IA futuros.
Tanto Estados Unidos como la UE ocupan posiciones fundamentales en torno al futuro de la gobernanza global de la IA a la hora de establecer estándares para la gestión de riesgos de la IA. Sin embargo, a las nuevas empresas tecnológicas con sede en Europa les preocupa que la legislación más estricta proveniente de la UE obstaculice la innovación, dejándolas rezagadas respecto de las de Estados Unidos, que tiene mucha menos burocracia.
El problema ha llevado a equipos de liderazgo de empresas como Mistral, la empresa de inteligencia artificial con sede en Francia, a presionar para lograr regulaciones diluidas, argumentando que hacen que la carrera mundial por la innovación en IA sea desigual.
‘No queremos paralizar a nuestro ganador, ¿verdad?’
El Reino Unido se sitúa en algún punto intermedio. El país ya no forma parte oficialmente de la UE y está desarrollando su propio reglamento de IA. Y, sin embargo, al igual que con el Reglamento General de Protección de Datos, si una empresa del Reino Unido tiene clientes en la UE y trabaja con socios en esos estados miembros, tendrá que cumplir con las normas de la Ley de IA de la UE.
Es una situación difícil. “Entonces cada gobierno dice: ‘bueno, no queremos paralizar a nuestro ganador, ¿verdad?'”, dijo James Clough, CTO y cofundador de Robin AI, una startup con sede en el Reino Unido que utiliza IA para transformar la industria legal. . “Pueden ver que pueden tener una empresa de IA realmente exitosa creciendo en su país y no quieren regularla. Pero luego se vuelve cada vez más difícil elaborar regulaciones significativas”.
Y con cualquier regulación, es extremadamente burocrático. Esto es una carga para las empresas, especialmente las más pequeñas, que no pueden igualar los recursos legales y de cumplimiento de los gigantes tecnológicos.
“El resultado de esto es que tiende a favorecer a los actores establecidos y a las grandes empresas”, dijo Clough. “Ellos [big tech] pueden manejar toda esa regulación y eso no les impide hacer lo que quieren hacer. Mientras que las empresas más pequeñas podrían estar haciendo algo realmente innovador, pero si no cuentan con un gran equipo de cumplimiento para redactar un gran informe sobre los riesgos potenciales, les resultará más difícil innovar”.
Para leer el artículo completo, haga clic aquí
Con información de Digiday
Leer la nota Completa > En qué se diferencia la regulación de la IA en EE. UU. y la UE