La reacción violenta estaba destinada a suceder.
Después de meses de empresas de tecnología compitiendo para implementar varias herramientas de inteligencia artificial, el sector ahora se encuentra bajo un mayor escrutinio. Pero eso no parece impedir que nadie lo construya, ni ralentiza que muchos lo compren.
La semana pasada, tanto los expertos en tecnología como los reguladores apuntaron públicamente a la floreciente industria de la IA. Los funcionarios de la Unión Europea introdujeron una nueva legislación para regular la IA, el gobierno británico publicó un libro blanco que establece un “enfoque a favor de la innovación” para la IA e Italia se convirtió en el primer gobierno en prohibir el ChatGPT de OpenAI debido a problemas de privacidad de datos.
En los EE. UU., el Centro de IA y Política Digital, un grupo de expertos en IA, solicitó a la Comisión Federal de Comercio que se involucrara. Y en una carta pública separada firmada por más de 1,000 líderes tecnológicos, incluido el cofundador de Apple, Steve Wozniak, el cofundador de Pinterest, Evan Sharp, y numerosos expertos en inteligencia artificial. — instó a las propias empresas a “pausar” el desarrollo adicional de modelos de IA durante al menos seis meses antes de entrenar un sistema de IA más potente que el GPT-4 lanzado recientemente por OpenAI.
Esas preocupaciones no parecen impedir que las empresas que desarrollan IA sigan adelante con sus propias actualizaciones. En medio de los llamados a una desaceleración de la semana pasada, Microsoft sacó a la luz nuevos anuncios para su Bing impulsado por ChatGPT, Adobe promocionó una nueva asociación con Prudential Insurance para usar IA para “experiencias financieras personalizadas” y Google reveló un nuevo acuerdo con la plataforma de codificación Replit to escalar aún más el software de IA.
La actual falta de claridad regulatoria en torno a varias preocupaciones, como la propiedad de los datos y los derechos de propiedad intelectual, plantea riesgos para el uso de ChatGPT, según Nicole Greene, analista sénior de Gartner. Dijo que los gobiernos y las empresas deben colaborar para “ayudar a la sociedad a dar forma a las expectativas”, pero también advirtió que la regulación preventiva del sector también podría terminar obstaculizando la investigación y los avances.
“[Marketers] necesitamos con urgencia compilar una lista de casos de uso activos afectados por la IA generativa y colaborar con pares para establecer políticas y pautas prácticas para dirigir su uso responsable”, dijo Greene. “Cada día aparecen nuevos proveedores y las organizaciones deben comprender sus casos de uso principales, pero asegurarse de que cuentan con los estándares de transparencia, confianza y seguridad necesarios para aplicar estas tecnologías en apoyo de los esfuerzos de la marca”.
Según la edición de 2023 del “Informe del índice de IA” de la Universidad de Stanford, que rastrea el progreso, las percepciones y el impacto de la IA en todo el mundo, los incidentes de uso indebido de la IA se han multiplicado por 26 en la última década. El informe detallado publicado esta semana también encontró que la cantidad de proyectos de ley aprobados en todo el mundo que mencionan la “inteligencia artificial” aumentó de 1 en 2016 a 37 en 2022. Y quizás algo sorprendente, el informe también menciona que la inversión corporativa en IA disminuyó. el año pasado por primera vez, cayendo de $ 276,1 mil millones en 2021 a $ 189,6 mil millones en 2022
Más allá de los gigantes, los fundadores de algunas nuevas empresas de tecnología de marketing centradas en la IA insisten en que hay una forma de desarrollar la IA de manera segura a pesar de las preocupaciones actuales.
Entre los optimistas se encuentra Hikari Senju, director ejecutivo y fundador de Omneky, una plataforma de publicidad que utiliza IA para generar anuncios en redes sociales e imágenes de productos. Llamó a las advertencias de que la IA se apoderó de la humanidad “pensamiento ludita”, y agregó que no cree que una “plataforma singular sea más astuta que la sabiduría colectiva de la humanidad”. Aunque está a favor de una regulación que proteja a las personas de los peligros potenciales de la IA, Senju no cree que los humanos estén en riesgo en el corto plazo.
“La pregunta realmente es, ¿cómo puede la IA empoderar aún más a la humanidad para comunicarse mejor entre sí y hacer que los cien billones de billones de neuronas del cerebro colectivo humano suban de nivel en términos de su ancho de banda y su comunicación?” Senju preguntó. “Ahí es donde realmente está el potencial en términos de esta tecnología”.
A pesar de la caracterización de Senju de ellos como luditas, los expertos en inteligencia artificial que piden una desaceleración no necesariamente se esconden detrás de sus teléfonos plegables. Muchos son pioneros de la IA que han pasado décadas investigando y desarrollando modelos para diversas aplicaciones. Sin embargo, la carta, publicada por Future of Life Insitute, una organización sin fines de lucro respaldada por Elon Musk, también enfrentó críticas después de que los observadores notaron firmas falsas e incluso algunos expertos que realmente la firmaron luego no estuvieron de acuerdo con el enfoque de la organización.
En lugar de una pausa total, otros enfatizan la necesidad de más educación para capacitar a más personas en todo el mundo sobre cómo desarrollar IA de manera responsable, así como para enseñar a los funcionarios gubernamentales encargados de regularlos. Bharat Krish, exdirector de tecnología de Time, dijo que siempre “habrá cosas buenas y malas, y con suerte lo bueno triunfará sobre lo malo”.
“El genio salió de la botella”, dijo Krish, quien ahora es asesor de Fusemachines, una startup de IA. “No creo que realmente puedas detenerlo. Creo que algo como firmar una carta es inútil, no sé lo que logra. Porque si no es OpenAI, hay otras personas trabajando en él, incluidas empresas de las que aún no hemos oído hablar”.
Yair Adato, cofundador y director ejecutivo de Bria, una startup de imágenes y videos generativos, dijo que la clave es pensar en las limitaciones desde el principio, como usar contenido de origen “responsable”. En lugar de entrenar a la IA de Bria con contenido cuestionable, dijo que alimentar a la IA con una dieta saludable de conocimiento y aportes desde el principio ayuda a resolver problemas relacionados con los derechos de autor, la privacidad de los datos, el sesgo y la seguridad de la marca.
Cuando estaba recaudando dinero de los inversores hace tres años, Adato dijo que tenía que elegir si entrar en el negocio de generar contenido o detectarlo. Al elegir el primero, decidió que era importante brindar una alternativa a los modelos de código abierto, pero también agregó que el modelo comercial era mejor.
“Si lo piensas desde el principio, entonces no necesitas una guía”, dijo Adato. “Si no incluyes pornografía, entonces no necesitas evitarlo, ya que el sistema no sabe qué es y no necesitas una barrera”.
https://digiday.com/?p=498352
Con información de Digiday
Leer la nota Completa > A medida que aumenta la atención de la IA, también lo hace la tensión sobre cómo manejarla