Ray Kurzweil, un destacado futurista y director de ingeniería de Google, publicó una refutación a la carta que pedía una pausa en la investigación de IA, ofreciendo razones por las que la propuesta no es práctica y priva a la humanidad de avances médicos e innovaciones que benefician profundamente a la humanidad.
Carta internacional para pausar el desarrollo de IA
Una carta abierta firmada por científicos y celebridades de todo el mundo (publicada en FutureOfLife.org) pidió una pausa completa en el desarrollo de IA que sea más poderosa que GPT-4, la última versión creada por OpenAI.
Además de detener un mayor desarrollo de la IA, también pidieron el desarrollo de protocolos de seguridad supervisados por expertos independientes externos.
Algunos de los puntos que hacen los autores de la carta abierta:
- La IA plantea un riesgo profundo
- El desarrollo de la IA solo debe proceder una vez que se enumeran y justifican las aplicaciones beneficiosas de la tecnología.
- AI solo debe proceder si “nosotros” (los miles de firmantes de la carta) estamos seguros de que los riesgos de AI son manejables.
- Los desarrolladores de IA están llamados a trabajar junto con los formuladores de políticas para desarrollar sistemas de gobernanza de IA que consisten en organismos reguladores.
- El desarrollo de tecnologías de marcas de agua para ayudar a identificar el contenido creado por IA y para controlar la difusión de la tecnología.
- Un sistema de asignación de responsabilidad por daños creado por IA
- Creación de instituciones para hacer frente a las disrupciones causadas por la tecnología de IA
La carta parece provenir de un punto de vista de que la tecnología de IA está centralizada y puede ser pausada por las pocas organizaciones que controlan la tecnología. Pero la IA no está exclusivamente en manos de gobiernos, institutos de investigación y corporaciones.
AI es en este punto una tecnología de código abierto y descentralizada, desarrollada por miles de personas en una escala global de colaboración.
Ray Kurzweil: futurista, autor y director de ingeniería de Google
Ray Kurzweil ha estado diseñando software y máquinas centradas en la inteligencia artificial desde la década de 1960, ha escrito muchos libros populares sobre el tema y es famoso por hacer predicciones sobre el futuro que tienden a ser correctas.
De 147 predicciones que hizo sobre la vida en 2009, solo tres predicciones, un total del 2%, fueron incorrectas.
Entre sus predicciones en la década de 1990 está que muchos medios físicos, como los libros, perderán popularidad a medida que se digitalicen. En un momento de la década de 1990 cuando las computadoras eran grandes y voluminosas, predijo que las computadoras serían lo suficientemente pequeñas como para usarlas en 2009, lo que resultó ser cierto (Cómo van mis predicciones – 2010 PDF).
Las predicciones recientes de Ray Kurzweil se centran en todo lo bueno que traerá la IA, particularmente en los avances médicos y científicos.
Kurzweil también se centra en la ética de la IA.
En 2017 fue uno de los participantes (junto con el CEO de OpenAI, Sam Altman) que elaboró una carta abierta conocida como los Principios de IA de Asilomar que también se publicaron en el sitio web Future of Life, pautas para el desarrollo seguro y ético de las tecnologías de Inteligencia Artificial.
Entre los principios que ayudó a crear:
- “El objetivo de la investigación de la IA no debe ser crear inteligencia no dirigida, sino inteligencia beneficiosa.
- Las inversiones en IA deben ir acompañadas de financiación para la investigación para garantizar su uso beneficioso
- Debería haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.
- La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes.
- La superinteligencia solo debe desarrollarse al servicio de ideales éticos ampliamente compartidos y para el beneficio de toda la humanidad en lugar de un solo estado u organización”.
La respuesta de Kurzweil a la carta abierta que pedía una pausa en el desarrollo de la IA provino de toda una vida de tecnología innovadora desde el punto de vista de todo el bien beneficioso que puede hacer por la humanidad y el mundo natural.
Su respuesta se centró en tres puntos principales:
- La llamada a una pausa es demasiado vaga para ser práctica
- Todas las naciones deben estar de acuerdo con la pausa o los objetivos son derrotados desde el principio.
- Una pausa en el desarrollo ignora los beneficios, como identificar curas para enfermedades.
Demasiado vago para ser práctico
Su primer punto sobre la carta es que es demasiado vaga porque está provocando una pausa en la IA que es más poderosa que GPT-4, lo que supone que GPT-4 es el único tipo de IA.
Kurzweil escribió:
“Con respecto a la carta abierta para “pausar” la investigación sobre IA “más poderosa que GPT-4”, este criterio es demasiado vago para ser práctico”.
Las naciones optarán por salir de la pausa
Su segundo punto es que las demandas descritas en la carta solo pueden funcionar si todos los investigadores del mundo cooperan voluntariamente.
Cualquier nación que se niegue a firmar tendrá la ventaja, que es probablemente lo que sucedería.
El escribe:
“Y la propuesta enfrenta un serio problema de coordinación: aquellos que estén de acuerdo con una pausa pueden quedar muy por detrás de las corporaciones o naciones que no están de acuerdo”.
Este punto deja en claro que el objetivo de una pausa completa no es viable, porque las naciones no cederán una ventaja y, además, la IA está democratizada y es de código abierto, en manos de personas de todo el mundo.
La IA aporta beneficios significativos a la IA
Ha habido editoriales que descartan la IA por tener muy pocos beneficios para la sociedad, argumentando que aumentar la productividad de los trabajadores no es suficiente para justificar los riesgos que temen.
El punto final de Kurzweil es que la carta abierta que busca una pausa en el desarrollo de la IA ignora por completo todo el bien que la IA puede hacer.
El explica:
“Existen enormes beneficios para el avance de la IA en campos críticos como la medicina y la salud, la educación, la búsqueda de fuentes de energía renovables para reemplazar los combustibles fósiles y muchos otros campos.
… se necesitan más matices si deseamos desbloquear las profundas ventajas de la IA para la salud y la productividad mientras evitamos los peligros reales”.
Peligros, Miedo a lo Desconocido y Beneficios para la Humanidad
Kurzweil destaca cómo la IA puede beneficiar a la sociedad. Su punto de que no hay forma de pausar la IA es sólido.
Su explicación de la IA enfatiza los profundos beneficios para la humanidad que son inherentes a la IA.
¿Podría ser que la implementación de OpenAI de la IA como un chatbot trivializa la IA y eclipsa el beneficio para la humanidad, al mismo tiempo que asusta a las personas que no entienden cómo funciona la IA generativa?
Imagen destacada de Shutterstock/Iurii Motov
Con información de Search Engine Journal.
Leer la nota Completa > Ray Kurzweil refuta los llamados a detener la investigación de IA