Si pagara el chatgpt plus de mi propio bolsillo y lo usara para ayudarme a escribir este artículo, ¿sabría mi jefe, o le importaría?
Esa es la pregunta que rodea “Shadow AI”, que se refiere al uso de herramientas de IA en el trabajo que las empresas no han sido aprobadas formalmente.
La presión continua para trabajar más rápido, junto con la proliferación de herramientas de IA generativas fáciles de usar, significa que más personal editorial está utilizando AI para completar las tareas. Y si bien el uso de IA generativa para tareas menores, como las verificaciones de gramática, la reescritura de la copia o la prueba de diferentes titulares, cae en un cubo de delitos, hay otros usos que podrían causar mayores problemas en el futuro, si no se controlan.
Y eso podría conducir a estándares editoriales inconsistentes, vulnerabilidades de seguridad y errores éticos, dicen los expertos legales.
Aquí hay una mirada más detallada de lo que es y cómo se configuran los editores para hacer frente a los riesgos.
¿Qué es Shadow Ai?
Shadow AI se refiere al uso de herramientas de IA en el trabajo que la empresa no ha aprobado o licenciado oficialmente. Ha sido una espina en el lado de los departamentos de TI en todas partes, ya que el uso no autorizado de herramientas generativas de IA en el trabajo puede hacer que las empresas sean más vulnerables a las violaciones de datos.
Pero su aplicación a las salas de redacción plantea un conjunto único de consideraciones. Introducir datos confidenciales como material fuente confidencial, investigación patentada, noticias embargadas e información con derechos de autor en modelos de idiomas grandes sin la supervisión de un editor podría arriesgar la protección de esa información y la reputación y precisión del periodista de su trabajo, incluso podría ser ilegal.
“Si alguien toma [my work] y lo pone en un sistema, y ahora el propietario de ese sistema tiene una copia de él, podrían usarlo de manera que [I] nunca pretendía o habría permitido nunca. Y una de esas formas es la capacitación de IA ”, dijo Michael Yang, director senior de AI Advisory Services en la firma de abogados Husch Blackwell. “Podría estar en una situación en la que ha causado inadvertidamente la situación de incumplimiento de una situación de contrato”.
Los empleados de la sala de redacción ingresan datos con derechos de autor en un LLM que luego usa esos datos para fines de capacitación podrían causar problemas legales en el futuro.
¿Cuáles son los riesgos involucrados?
Los expertos legales que hablaron con Digiday citaron tres consideraciones principales: el sesgo potencial de los modelos de IA, los problemas de confidencialidad y precisión.
El sesgo de los modelos de IA ha sido bien informado. Si los datos utilizados para entrenar a los modelos AI son sesgados o unilaterales (como sesgados a favor de ciertas razas o géneros) y los periodistas dependen de las herramientas construidas a partir de estos modelos para su trabajo, la salida podría terminar perpetuando esos estereotipos, enfatizó, Yang.
LLMS raspando el contenido en línea de los editores y usarlo para capacitar a sus modelos está en el corazón de los casos de infracción de derechos de autor como el que trajo el New York Times contra OpenAI. Las mismas preguntas sobre cómo estos LLM están utilizando datos para capacitar a sus sistemas son la razón por la cual podría ser riesgoso para los periodistas ingresar datos con derechos de autor (o cualquier información confidencial, como la información de la fuente confidencial) en un modelo de IA que está conectado a Internet y no alojado localmente, según Felix Simon, un becario de Investigación en AI y noticias en la Universidad de Oxford, estudia las implicaciones de IA para el periodismo.
Los datos confidenciales podrían alimentarse en estos sistemas no aprobados y utilizados para capacitar a los modelos de IA, que potencialmente aparecen en salidas, dijo Simon. Y si estos sistemas no son seguros, la compañía de tecnología AI podría verlos, las personas que revisan los resultados de los modelos para realizar actualizaciones de los sistemas o terceros, agregó.
Compartir datos con derechos de autor de esta manera con un sistema de IA podría ser ilegal Debido a la forma en que las empresas de IA pueden ingerir entradas y usarlas como datos de capacitaciónYang subrayó. Y el editor sería responsable de infringir los derechos de autor o generar contenido infractor, agregó Gary Kibel, socio del bufete de abogados Davis+ Gilbert, que asesora a los medios y a los clientes de publicidad.
Mientras tanto, usar una herramienta que no ha sido examinada puede causar problemas de precisión. “Si ingresa a una plataforma de IA, ‘si la CEO Jane Doe hiciera lo siguiente, ¿qué significaría eso?’ Y luego la plataforma AI lanza eso en sus datos de entrenamiento, y sale en la producción de otra persona que la CEO Jane Doe hizo lo siguiente … pueden venir a usted y decirle: ‘¿Cómo se salió esto en el mundo? Solo te dije a ti ‘”, dijo Kibel.
Muchos de los editores más grandes se han establecido con políticas formales, principios y barandillas para las salas de redacción.
Gannett tiene sus “pautas éticas y política para los periodistas de Gannett con respecto al contenido generado por IA o asistido”. Es uno de los pocos editores que han desarrollado estas políticas: otras incluyen The Guardian, The New York Times y The Washington Post.
Los editores también han creado grupos internos dedicados a determinar estos principios y directrices.
Por ejemplo, Gannett tiene un “consejo de IA”, que está compuesto por gerentes interfuncionales que tienen la tarea de revisar nuevas herramientas de IA y casos de uso para su evaluación y aprobación. Fuerzas de trabajo similares surgieron en compañías como BuzzFeed y Forbes en 2023.
“Estos protocolos aseguran la protección del personal de Gannett, los activos, la IP y la información”, dijo un portavoz de la compañía.
Educar a los empleados de la sala de redacción sobre los riesgos que conlleva el uso de herramientas de IA no pagadas o aprobadas por su empresa también es clave. Un ejecutivo editorial, que habló bajo condición de anonimato, dijo que el mejor enfoque es explicar los riesgos involucrados, especialmente al destacar los riesgos personalmente para los empleados.
Hasta ahora, los editores piensan que sus políticas, directrices y grupos de trabajo dedicados a la IA son suficientes para dirigir sus salas de redacción en la dirección correcta.
Eso podría funcionar, siempre que esas pautas “tengan algunos dientes”, con consecuencias como cualquier acción disciplinaria que se explicara claramente, según Yang, que es un ex director y asesor general asociado en Adobe.
Las empresas también pueden la tecnología de la lista blanca que es aprobada para su uso en la sala de redacción. Por ejemplo, el New York Times aprobó recientemente una gran cantidad de programas de IA para el personal editorial y de productos, incluidos Vertex AI y Notebooklm de Google, informó SemaFOR.
Pero eso es difícil de hacer si eres un pequeño editor con menos recursos. También es imposible revisar todas las herramientas de IA disponibles que un periodista podría usar. Los expertos legales y ejecutivos de publicación dijeron a Digiday que reconocen el desafío de controlar cómo los periodistas usan información en línea.
¿Cómo haces la AI de Shadow Shadow?
No puedes. Al menos, no completamente. Pero puede asegurarse de que el personal sepa dónde se encuentran ellos y la empresa sobre cómo las herramientas de IA deben usarse en el trabajo.
“Podría ser tan simple como alguien que ejecuta una aplicación en su teléfono privado”, dijo Yang. “¿Cómo controlas efectivamente que cuando ese es su teléfono, su propiedad y pueden hacerlo sin que nadie lo sepa?”
Pero ahí es donde las políticas formales, los principios y las barandillas establecidas por los editores pueden ayudar.
Un ejecutivo editorial dijo que esperaba que alguna IA Shadow ocurriera en la sala de redacción, pero confiaba en la capacitación que su compañía estaba brindando a los empleados. Su compañía tiene varias sesiones de capacitación al año para discutir su política y pautas de IA, como no cargar fuentes confidenciales y materiales, datos financieros e información personal en LLM no aprobados por la Compañía.
“Tiendo a confiar en las personas con juicios en términos del trabajo que hacen y sabiendo lo que es bueno para ellos”, dijo el ejecutivo.
Un portavoz de Gannett dijo que la compañía tiene un “proceso robusto” para aprobar e implementar tecnología en su sala de redacción. La compañía tiene una política tecnológica específica que describe el software y los servicios en línea que están aprobados, así como cómo solicitar el acceso y el pago de otros servicios si es necesario.
“Esta política nos ayuda a garantizar la seguridad e integridad de nuestros sistemas y datos”, dijo el portavoz.
Según un informe reciente Por la compañía de software AI Trint, el 64% de las organizaciones planean mejorar la educación de los empleados y el 57% introducirá nuevas políticas sobre el uso de IA este año.
Pero otra pregunta que las compañías deberían hacerse es: ¿por qué los periodistas están haciendo esto?
“Tal vez lo están haciendo porque las herramientas que se están poniendo a disposición de ellos no son suficientes”, dijo Yang. “Puedes apoyarte y decir: ‘Vamos a examinar las herramientas, tener protecciones técnicas para las herramientas … y vamos a tener políticas y educación para asegurarte de que entiendas lo que puedes y no puedes hacer. [and] La mejor manera de usarlo para evitar estos problemas ‘”.
Con información de Digiday
Leer la nota Completa > ¿Qué es “Shadow AI” y por qué los editores deberían preocuparse?