Parece que fue ayer (aunque han pasado casi seis meses) desde que OpenAI lanzó ChatGPT y comenzó a aparecer en los titulares.
ChatGPT alcanzó los 100 millones de usuarios en tres meses, lo que la convierte en la aplicación de más rápido crecimiento en décadas. A modo de comparación, TikTok tardó nueve meses, e Instagram dos años y medio, para alcanzar el mismo hito.
Ahora, ChatGPT puede utilizar GPT-4 junto con la navegación por Internet y complementos de marcas como Expedia, Zapier, Zillow y más para responder a las indicaciones de los usuarios.
Las grandes empresas tecnológicas como Microsoft se han asociado con OpenAI para crear soluciones para clientes impulsadas por IA. Google, Meta y otros están construyendo sus modelos de lenguaje y productos de IA.
Más de 27 000 personas, incluidos directores ejecutivos de tecnología, profesores, científicos investigadores y políticos, han firmado una petición para detener el desarrollo de sistemas de inteligencia artificial más potentes que GPT-4.
Ahora, la pregunta puede no ser si el gobierno de los Estados Unidos debería regular la IA, si no es demasiado tarde.
Los siguientes son desarrollos recientes en la regulación de la IA y cómo pueden afectar el futuro del avance de la IA.
Las agencias federales se comprometen a combatir los prejuicios
Cuatro agencias federales clave de EE. UU., la Oficina de Protección Financiera del Consumidor (CFPB), la División de Derechos Civiles del Departamento de Justicia (DOJ-CRD), la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) y la Comisión Federal de Comercio (FTC), emitieron una declaración sobre el fuerte compromiso de frenar el sesgo y la discriminación en los sistemas automatizados y la IA.
Estas agencias han subrayado su intención de aplicar las regulaciones existentes a estas tecnologías emergentes para garantizar que respeten los principios de equidad, igualdad y justicia.
- CFPB, responsable de la protección del consumidor en el mercado financiero, reafirmó que las leyes financieras de consumo existentes se aplican a todas las tecnologías, independientemente de su complejidad o novedad. La agencia ha sido transparente en su postura de que la naturaleza innovadora de la tecnología de inteligencia artificial no puede usarse como defensa por violar estas leyes.
- DOJ-CRD, la agencia encargada de proteger contra la discriminación en varias facetas de la vida, aplica la Ley de Vivienda Justa a los servicios de selección de inquilinos basados en algoritmos. Esto ejemplifica cómo las leyes de derechos civiles existentes pueden usarse para automatizar sistemas e IA.
- La EEOC, responsable de hacer cumplir las leyes contra la discriminación en el empleo, emitió una guía sobre cómo se aplica la Ley de Estadounidenses con Discapacidades a la IA y el software que se utiliza para tomar decisiones laborales.
- La FTC, que protege a los consumidores de las prácticas comerciales desleales, expresó su preocupación por el potencial de las herramientas de IA de ser inherentemente sesgadas, inexactas o discriminatorias. Ha advertido que implementar IA sin una evaluación de riesgo adecuada o hacer afirmaciones sin fundamento sobre IA podría verse como una violación de la Ley FTC.
Por ejemplo, el Centro de Inteligencia Artificial y Política Digital presentó una queja ante la FTC sobre el lanzamiento de OpenAI de GPT-4, un producto que “es parcial, engañoso y un riesgo para la privacidad y la seguridad pública”.
Senador cuestiona a las empresas de IA sobre la seguridad y el uso indebido
El senador estadounidense Mark R. Warner envió cartas a las principales empresas de IA, incluidas Anthropic, Apple, Google, Meta, Microsoft, Midjourney y OpenAI.
En esta carta, Warner expresó su preocupación por las consideraciones de seguridad en el desarrollo y uso de sistemas de inteligencia artificial (IA). Pidió a los destinatarios de la carta que prioricen estas medidas de seguridad en su trabajo.
Warner destacó una serie de riesgos de seguridad específicos de la IA, como problemas en la cadena de suministro de datos, ataques de envenenamiento de datos, ejemplos de adversarios y el posible uso indebido o malicioso de los sistemas de IA. Estas preocupaciones se establecieron en el contexto de la creciente integración de AI en varios sectores de la economía, como la atención médica y las finanzas, lo que subraya la necesidad de tomar precauciones de seguridad.
La carta hacía 16 preguntas sobre las medidas tomadas para garantizar la seguridad de la IA. También implicaba la necesidad de cierto nivel de regulación en el campo para prevenir efectos nocivos y garantizar que la IA no avance sin las salvaguardas adecuadas.
Se pidió a las empresas de IA que respondieran antes del 26 de mayo de 2023.
La Casa Blanca se reúne con los líderes de AI
La Administración Biden-Harris anunció iniciativas para fomentar la innovación responsable en inteligencia artificial (IA), proteger los derechos de los ciudadanos y garantizar la seguridad.
Estas medidas se alinean con el impulso del gobierno federal para gestionar los riesgos y oportunidades asociados con la IA.
La Casa Blanca tiene como objetivo poner a las personas y las comunidades en primer lugar, promoviendo la innovación de la IA para el bien público y protegiendo a la sociedad, la seguridad y la economía.
Altos funcionarios de la administración, incluida la vicepresidenta Kamala Harris, se reunieron con líderes de Alphabet, Anthropic, Microsoft y OpenAI para analizar esta obligación y la necesidad de una innovación responsable y ética.
Específicamente, discutieron la obligación de las corporaciones de garantizar la seguridad de los LLM y los productos de IA antes del despliegue público.
Idealmente, los nuevos pasos complementarían las amplias medidas ya tomadas por la administración para promover la innovación responsable, como la Declaración de derechos de IA, el Marco de gestión de riesgos de IA y los planes para un recurso nacional de investigación de IA.
Se han tomado medidas adicionales para proteger a los usuarios en la era de la IA, como una orden ejecutiva para eliminar el sesgo en el diseño y uso de nuevas tecnologías, incluida la IA.
La Casa Blanca señaló que la FTC, CFPB, EEOC y DOJ-CRD se han comprometido colectivamente a aprovechar su autoridad legal para proteger a los estadounidenses de los daños relacionados con la IA.
La administración también abordó las preocupaciones de seguridad nacional relacionadas con la ciberseguridad y la bioseguridad de la IA.
Las nuevas iniciativas incluyen $ 140 millones en fondos de la Fundación Nacional de Ciencias para siete Institutos Nacionales de Investigación de IA, evaluaciones públicas de los sistemas generativos de IA existentes y nueva orientación de políticas de la Oficina de Administración y Presupuesto sobre el uso de IA por parte del gobierno de EE. UU.
La supervisión de la audición de la IA explora la regulación de la IA
Los miembros del Subcomité de Privacidad, Tecnología y la Ley celebraron una audiencia de Supervisión de la IA con miembros destacados de la comunidad de IA para discutir la regulación de la IA.
Acercarse a la regulación con precisión
Christina Montgomery, Directora de Privacidad y Confianza de IBM, enfatizó que si bien la IA ha avanzado significativamente y ahora es parte integral de las esferas de los consumidores y los negocios, la mayor atención pública que está recibiendo requiere una evaluación cuidadosa del impacto social potencial, incluido el sesgo y el mal uso.
Apoyó el papel del gobierno en el desarrollo de un marco regulatorio sólido, proponiendo el enfoque de “regulación de precisión” de IBM, que se enfoca en reglas de casos de uso específicos en lugar de la tecnología en sí, y describió sus componentes principales.
Montgomery también reconoció los desafíos de los sistemas de IA generativa y abogó por un enfoque regulatorio basado en el riesgo que no obstaculice la innovación. Destacó el papel crucial de las empresas en la implementación responsable de la IA, y detalló las prácticas de gobierno de IBM y la necesidad de un Consejo de ética de la IA en todas las empresas involucradas con la IA.
Abordar los efectos económicos potenciales de GPT-4 y más allá
Sam Altman, director ejecutivo de OpenAI, describió el profundo compromiso de la empresa con la seguridad, la ciberseguridad y las implicaciones éticas de sus tecnologías de IA.
Según Altman, la empresa realiza incesantes pruebas de penetración internas y de terceros y auditorías periódicas de sus controles de seguridad. OpenAI, agregó, también es pionera en nuevas estrategias para fortalecer sus sistemas de IA contra las ciberamenazas emergentes.
Altman parecía estar particularmente preocupado por los efectos económicos de la IA en el mercado laboral, ya que ChatGPT podría automatizar algunos trabajos. Bajo el liderazgo de Altman, OpenAI está trabajando con economistas y el gobierno de EE. UU. para evaluar estos impactos y diseñar políticas para mitigar el daño potencial.
Altman mencionó sus esfuerzos proactivos en la investigación de herramientas de políticas y programas de apoyo como Worldcoin que podrían suavizar el golpe de la disrupción tecnológica en el futuro, como la modernización de los beneficios por desempleo y la creación de programas de asistencia al trabajador. (Mientras tanto, un fondo en Italia reservó recientemente 30 millones de euros para invertir en servicios para los trabajadores con mayor riesgo de desplazamiento de AI).
Altman enfatizó la necesidad de una regulación efectiva de la IA y prometió el apoyo continuo de OpenAI para ayudar a los formuladores de políticas. El objetivo de la compañía, afirmó Altman, es ayudar a formular regulaciones que estimulen la seguridad y permitan un amplio acceso a los beneficios de la IA.
Hizo hincapié en la importancia de la participación colectiva de varias partes interesadas, las estrategias regulatorias globales y la colaboración internacional para garantizar la evolución segura y beneficiosa de la tecnología de IA.
Explorando el potencial de daño de la IA
Gary Marcus, profesor de Psicología y Ciencias Neurales en la Universidad de Nueva York, expresó su creciente preocupación por el posible uso indebido de la IA, en particular los modelos de lenguaje poderosos e influyentes como GPT-4.
Ilustró su preocupación al mostrar cómo él y un ingeniero de software manipularon el sistema para inventar una narrativa completamente ficticia sobre extraterrestres que controlan el Senado de los EE. UU.
Este escenario ilustrativo expuso el peligro de que los sistemas de IA fabriquen historias de manera convincente, generando alarma sobre el potencial de que dicha tecnología se use en actividades maliciosas, como la interferencia electoral o la manipulación del mercado.
Marcus destacó la falta de confiabilidad inherente de los sistemas de inteligencia artificial actuales, que pueden tener graves consecuencias sociales, desde promover acusaciones sin fundamento hasta brindar consejos potencialmente dañinos.
Un ejemplo fue un chatbot de código abierto que parecía influir en la decisión de una persona de quitarse la vida.
Marcus también señaló el advenimiento de la ‘datocracia’, donde la IA puede moldear sutilmente las opiniones, posiblemente superando la influencia de las redes sociales. Otro desarrollo alarmante que llamó la atención fue el lanzamiento rápido de extensiones de IA, como los complementos ChatGPT de OpenAI y el AutoGPT resultante, que tienen acceso directo a Internet, capacidad de escritura de código y poderes de automatización mejorados, lo que podría aumentar las preocupaciones de seguridad.
Marcus cerró su testimonio con un llamado a una colaboración más estrecha entre científicos independientes, empresas de tecnología y gobiernos para garantizar la seguridad y el uso responsable de la tecnología de IA. Advirtió que si bien la IA presenta oportunidades sin precedentes, la falta de una regulación adecuada, la irresponsabilidad corporativa y la falta de confiabilidad inherente podrían llevarnos a una “tormenta perfecta”.
¿Podemos regular la IA?
A medida que las tecnologías de IA superen los límites, seguirán aumentando los pedidos de regulación.
En un clima en el que las asociaciones de Big Tech están en aumento y las aplicaciones se están expandiendo, suena una alarma: ¿Es demasiado tarde para regular la IA?
Las agencias federales, la Casa Blanca y los miembros del Congreso tendrán que continuar investigando el panorama urgente, complejo y potencialmente riesgoso de la IA mientras se aseguran de que continúen los avances prometedores de la IA y que la competencia de las grandes tecnologías no esté completamente fuera del mercado.
Imagen destacada: Katherine Welles/Shutterstock
Con información de Search Engine Journal.
Leer la nota Completa > ¿Es demasiado tarde para prevenir posibles daños?