La carrera de IA de 2023 ha avanzado a toda velocidad con los gigantes tecnológicos en los EE. UU. y Asia implementando rápidamente planes para incorporar herramientas de IA en sus plataformas. La semana pasada, Microsoft, Google, Alibaba, Baidu y Tencent anunciaron nuevas capacidades para sus productos y servicios. Pero a medida que los gigantes tecnológicos y las nuevas empresas crean y escalan herramientas para texto, imágenes y videos generados por IA, los expertos en seguridad cibernética dicen que es importante determinar quién debe tener acceso.
Las lecciones de la historia reciente podrían ayudar a informar cómo prepararse para la proliferación de la IA generativa. Por ejemplo, el escándalo de Cambridge Analytica de Facebook de hace solo unos años provocó nuevos debates sobre la privacidad de los datos sobre quién debería y quién no debería tener acceso a los datos de los usuarios en las redes sociales y el ecosistema más amplio de tecnología publicitaria.
Steve Grobman, director de tecnología de McAfee, ofreció otro ejemplo: la ola de gusanos de malware autorreplicantes de fines de la década de 1990 y principios de la de 2000, como Code Red, Nimda y SQL Slammer, que llevó a los expertos en seguridad cibernética a repensar por completo los procedimientos operativos estándar para protección de redes informáticas.
“Ahora estamos en ese carril con esta tecnología”, dijo Grobman. “Vamos a tener que resolver eso. Y algunas de las mejores prácticas en 2022 es posible que debamos pensar de manera diferente a medida que avanzamos”.
En los últimos años, McAfee y otras empresas aplicaron cada vez más herramientas de inteligencia artificial, como el procesamiento del lenguaje natural, para evaluar y categorizar la web. Por ejemplo, McAfee investigó el uso de IA contradictoria, que utiliza el aprendizaje automático para hacer que los ataques de IA fallen, para determinar cómo el malware elude los mecanismos de detección basados en IA.
También hay muchos ejemplos de cómo los generadores de texto de IA son propensos a proporcionar respuestas incorrectas, conocidas como “alucinaciones”, que plantean preocupaciones sobre la proliferación de información errónea tanto accidental como intencional. La semana pasada, la capitalización de mercado de Google cayó $ 100 mil millones después de que un video promocional de su nuevo chatbot Bard presentara información inexacta. Y en enero, la firma de investigación de desinformación NewsGuard dijo que probó 100 narraciones falsas en ChatGPT y recibió “afirmaciones elocuentes, falsas y engañosas” aproximadamente el 80% de las veces, incluidos temas como Covid-19, la guerra en Ucrania y tiroteos en escuelas.
“El informe muestra que esta tecnología en su conjunto tiene el potencial de democratizar la granja de trolls”, dijo Jack Brewster, editor empresarial de Newsguard que trabajó en el informe. “Si un mal actor puede hacerse con esta tecnología y eludir las salvaguardas, de repente tiene el poder de 20 000 o más escritores que pueden escribir una copia limpia con solo presionar un botón. Eso podría tener un impacto increíblemente dañino en las democracias de todo el mundo”.
Aunque las plataformas de IA más recientes aún son relativamente nuevas, ya están experimentando una adopción generalizada. ChatGPT, que debutó a fines del año pasado, los analistas estiman que tenía 100 millones de usuarios activos mensuales en enero. Y al igual que con las innovaciones anteriores, también existe el peligro de que la tecnología prolifere demasiado rápido como para que las barandas apropiadas se mantengan al día. Empresas como OpenAI ya están trabajando para mejorar varios problemas, pero algunos señalan que los malos actores no siguen las mismas reglas y aún podrían usar las herramientas con fines maliciosos. La semana pasada, los investigadores descubrieron que los piratas informáticos ya habían encontrado una forma de eludir las restricciones para generar contenido ilícito.
Los sistemas de chat de IA tienen “una tendencia a superar los límites del conocimiento”, dijo Jon Callas, director de tecnología de interés público en Electronic Frontier Foundation, una organización sin fines de lucro de derechos digitales. Agregó que existen otras preocupaciones relacionadas con la privacidad, los derechos de propiedad intelectual y el discurso de odio.
“Creo que lo que estamos viendo es otra cosa generacional de algo que hemos visto en el pasado”, dijo Callas. “Los chatbots aprenden de las personas que chatean con ellos y las personas malintencionadas pueden convertirlos en comentarios desagradables”.
La última ola de tecnología de inteligencia artificial también podría crear nuevos problemas para el comercio electrónico con reseñas o imágenes de productos falsos y otros usos. Pero la moderación de contenido era una tarea complicada incluso antes del surgimiento de la IA generativa y requiere una combinación de máquinas y humanos, dijo Guy Tytunovich, cofundador y director ejecutivo de CHEQ, una firma de ciberseguridad con sede en Israel que ayuda a los especialistas en marketing a detectar y prevenir el fraude publicitario. . Por otro lado, más bots también podrían generar más negocios para empresas como CHEQ como el juego del gato y el ratón para evitar que la IA maliciosa se acelere.
“La prohibición no funcionó bien hace 100 años”, dijo Tytunovich. “Y creo que tratar de detener la IA será igual de inútil”.
Con información de Digiday
Leer la nota Completa > A medida que la carrera de la IA generativa se calienta, también lo hace el potencial de que tenga un “impacto increíblemente dañino”.