Esta historia fue publicada por primera vez por el hermano de Digiday WorkLife
¿Por qué los científicos no confían en los átomos? Porque ellos inventan todo.
Cuando Greg Brockman, presidente y cofundador de OpenAI, demostró las posibilidades de GPT-4 (Generative Pre-trained Transformer 4), el modelo de lenguaje autorregresivo de cuarta generación que utiliza el aprendizaje profundo para producir texto similar al humano, tras su lanzamiento el 1 de marzo. 14, lo encargó a crear un sitio web a partir de un boceto de cuaderno.
Brockman solicitó a GPT-4, en el que se basa ChatGPT, que seleccionara una “broma realmente divertida” para atraer a los posibles espectadores a hacer clic para obtener la respuesta. Eligió la mordaza anterior. Presumiblemente, la ironía no tenía un propósito. Porque los problemas de “confianza” e “inventar cosas” siguen siendo masivos, a pesar de las capacidades increíbles pero fascinantes de la inteligencia artificial generativa.
Muchos líderes empresariales están fascinados, afirmó el futurista David Shrier, profesor de prácticas (IA e innovación) en la Escuela de Negocios Imperial College de Londres. Y era fácil entender por qué si la tecnología podía crear sitios web, inventar juegos, crear medicamentos pioneros y aprobar exámenes legales, todo en cuestión de segundos.
Esas hazañas impresionantes hacen que sea más difícil para los líderes tener una visión clara, dijo Shrier, quien ha escrito libros sobre tecnologías emergentes. En la carrera por adoptar ChatGPT, las empresas y los usuarios individuales están “ignorando ciegamente los peligros de una IA incorrecta”. Como resultado, advirtió que están surgiendo riesgos significativos a medida que las empresas se apresuran a reorientarse en torno a ChatGPT sin ser conscientes de las numerosas trampas, o ignorarlas.
Haga clic aquí para leer la historia completa.
Con información de Digiday
Leer la nota Completa > Los ejecutivos están ignorando los peligros de la IA “confiadamente incorrecta” y por qué es un problema enorme