Editores como BDG, BuzzFeed y Trusted Media Brands están empezando a utilizar tecnología de inteligencia artificial generativa en sus operaciones de ventas para reducir la cantidad de tiempo que lleva presentar a un nuevo cliente, responder a una solicitud de propuesta (RFP) o, en última instancia, cerrar un trato.
Pero, ¿qué sucede cuando los vendedores cargan información confidencial en las RFP de los anunciantes que simplemente intentan hacer su trabajo un poco más rápido?
Es una cuestión a la que los editores se ven obligados a enfrentar mientras buscan poner barreras de seguridad al utilizar herramientas de inteligencia artificial para impulsar las ventas.
Los grandes modelos de lenguaje (LLM) en los que se basan las herramientas de IA se alimentan constantemente de los datos que se ejecutan a través de sus sistemas. Y con los equipos de productos de los editores creando nuevos complementos de IA para sus plataformas de gestión de relaciones con los clientes (CRM) que ayudan a trazar posibles campañas publicitarias o inventando copilotos de IA que agilizan tareas que consumen mucho tiempo, como el resumen de RFP, los editores están enviando información potencialmente confidencial. en estos LLM.
Si bien es tentador no dejar pasar el tiempo ahorrado y los posibles aumentos de ingresos obtenidos mediante el uso de esta tecnología dentro de una capacidad de ventas, comprender los comportamientos previos de extracción de datos y los matices de la protección de información confidencial debe ser una prioridad máxima, dijo Myles Younger, jefe de innovación. y conocimientos en la U of Digital.
BuzzFeed, por su parte, ha tomado medidas para limitar el uso de información confidencial. La licencia que compraron de OpenAI, que es la tecnología en la que se basan todos sus copilotos, evita que la información más confidencial del equipo de ventas se utilice para mejorar el LLM y posteriormente se distribuya dentro del ChatGPT público, según Bill. Shouldis, gerente de productos de innovación de ingresos del personal de BuzzFeed.
“Tenemos nuestro acuerdo [with OpenAI] que ninguno de nuestros datos se utiliza para la formación”, dijo Shouldis. Pero también existe una medida provisional humana que consiste en no cargar información altamente confidencial en primer lugar para evitar consecuencias no deseadas, añadió.
Cuando se le preguntó si se debe notificar a los clientes potenciales o a los anunciantes actuales que su información se está ejecutando a través de una herramienta de inteligencia artificial conectada a un LLM más grande, Shouldis dijo que no estaba seguro. Dado que las herramientas que utiliza BuzzFeed son propietarias, la configuración de privacidad es más alta que la de un editor que podría estar utilizando una herramienta de inteligencia artificial de acceso abierto. Un portavoz de BuzzFeed no respondió a la misma pregunta sobre informar a los clientes sobre el uso de IA en sus operaciones de ventas.
BDG, por otro lado, está utilizando las herramientas de inteligencia artificial de Google para experimentar y generar eficiencias en el lado de las ventas. El editor eligió Google en lugar de OpenAI, en parte porque sus datos propios y de terceros ya están almacenados en Google Cloud, lo que elimina la fricción y el riesgo de seguridad de intentar volver a cargar años de datos históricos de ventas y campañas en otro LLM. Pero la calidad de la tecnología de Google también parece más segura, según el CTO Tyler Love.
“Es un producto de nivel Google, mientras que siento que OpenAI y ChatGPT sí lo son (estoy seguro de que están trabajando en cosas muy ambiciosas), pero en realidad no están preparados para enviar 10 millones de solicitudes a través de ellos a la vez. Creo que Google ya lo está haciendo”, dijo Love.
Trusted Media Brands, que está probando una variedad de diferentes herramientas de inteligencia artificial, actualmente ejecuta todos los contratos y acuerdos con empresas de tecnología de inteligencia artificial a través de su equipo legal, hasta los términos y condiciones más minuciosos para aceptar con un clic, según Jacob Salamon, vicepresidente. de desarrollo de negocio en TMB. Aunque esto se hace específicamente para proteger los activos de propiedad intelectual de la empresa, dada su biblioteca de 95.000 licencias de vídeo UGC adquiridas a través de Jukin Media.
Aún así, esos videos con licencia son la forma en que TMB obtiene una buena cantidad de ingresos, incluso mediante el alquiler de licencias a anunciantes que desean utilizar esos activos en campañas de marca. Por lo tanto, es primordial evitar las empresas de inteligencia artificial que tienen términos más “nefastos” que otras en sus acuerdos de uso, dijo Salamon, aunque se negó a nombrar a las empresas “nefastas”.
“Los cortafuegos que los editores y las agencias tienen que construir alrededor de sus clientes para asegurarse de que la información de propiedad de sus clientes no se filtre es un desafío”, dijo Younger de la Universidad de Digital, quien agregó que no está muy seguro de que el problema pueda solucionarse. resuelto todavía.
Con información de Digiday
Leer la nota Completa > Cómo los editores intentan cubrir sus activos cuando utilizan herramientas de inteligencia artificial en las ventas