Los editores que desean experimentar con el uso de tecnología de IA generativa para crear productos y características como crear chatbots y analizar datos deben evaluar qué modelos de lenguaje grandes se ajustan mejor a la factura.

Y resulta que uno de los factores más importantes en estas evaluaciones es lo fácil que es integrar una LLM en sus empresas “ Sistemas tecnológicos: como diferentes suites de productos y plataformas de gestión de contenido – Según las conversaciones con tres ejecutivos editoriales. Eso a menudo significa elegir los LLM que son propiedad de empresas con las que ya tienen tecnología empresarial o acuerdos de licencia de contenido.

Por ejemplo, un portavoz de un editor, que pidió permanecer en el anonimato, le dijo a Digiday que su compañía no está experimentando con una variedad de diferentes LLM y es principalmente Usando los modelos de OpenAI. Su compañía tiene un acuerdo de licencia de contenido con OpenAI que siguió a un proyecto exitoso para construir un chatbot utilizando el modelo GPT de OpenAI. El editor ha seguido utilizando GPT para otras necesidades, como las herramientas de productividad.

Otro ejecutivo editorial, que habló bajo condición de anonimato, dijo que están utilizando el modelo GPT de OpenAI para uso interno en lugar de otros LLM, simplemente porque tienen un acuerdo de contenido con OpenAI.

Y un tercer ejecutivo editorial, que también solicitó el anonimato, dijo que su compañía está utilizando LLMS propiedad de compañías como Microsoft y Google porque ya está pagando para usar su software empresarial, incluidos Microsoft Office 365 y Google Workspace.

Esto hace que sea “muy fácil para nosotros integrarlo en nuestro ecosistema de desarrollo completo”, dijo el tercer ejecutivo editorial. Como cliente de la suite de productos Microsoft Office 365, la compañía puede “integrar [Copilot] Nativamente en las herramientas que ya usamos, como Outlook, Excel, PowerPoint [and] Palabra ”, agregaron.

Nate Landau, directora de productos y tecnología de Theskimm, dijo que el uso de la tecnología ofrecida por las empresas con las que ya tienen acuerdos existentes significa que no tienen que construir sus propias soluciones.

“Algunos de nuestros socios, como [data storage company] Snowflake, ofrece sus propias integraciones de IA y priorizamos a las que se acumulan soluciones desde cero, donde corresponda ”, dijo.

Y debido a que Theskimm no tiene un acuerdo de exclusividad con una compañía de tecnología de IA, tienen la flexibilidad de trabajar con diferentes modelos, agregó Landau.

“Dada la naturaleza en rápida evolución de este espacio y las diferentes fortalezas y debilidades de diferentes modelos, no hemos centralizado en un solo proveedor”, dijo. “Para cada caso de uso, evaluamos múltiples proveedores para garantizar el mejor ajuste”.

Algunos otros factores que las compañías de medios tienen en cuenta al evaluar qué LLMS utilizar incluyen el costo, el rendimiento y la calidad de los resultados de los modelos y las consideraciones de privacidad y seguridad.

“Es extremadamente importante para nosotros que los modelos no estén capacitados en la información o las entradas de nuestros usuarios y que cualquier interacción con los productos de IA sea seguro y protegido”, dijo Vadim Supitskiy, director digital e de información de Forbes.

Rendimiento de prueba

Los LLM tienen que trabajar bien para los casos de uso de los editores para que todo esto valga la pena su tiempo y dinero.

Al elegir qué LLM usar para diferentes procesos, Theskimm realiza pruebas de lado a lado de los modelos y compara sus resultados “para garantizar que se alineen con nuestra voz de marca y estándares editoriales”, dijo Landau. Esto se debe a que las principales diferencias entre estos modelos son su “voz, tono y precisión en varios casos de uso”, agregó.

Por ejemplo, Claude tiene un “tono más suave y más natural” y es “particularmente preciso”, por lo que Landau lo prefiere para las tareas donde la voz y el tono de respuesta son especialmente importantes. Pero para las tareas que requieren menos creatividad, como trabajar con los conjuntos de datos de Theskimm, prefiere modelos como Meta’s Llama “por su confiabilidad en proporcionar respuestas precisas y procesables y evitar alucinaciones”.

Sin embargo, a medida que los LLM continúan evolucionando rápidamente, estas distinciones se están “volviendo cada vez más sutiles”, dijo Landau.

Theskimm usa LLM para tres cosas en particular: análisis de datos, adquisición de audiencia y experimentación, según Landau. Estos modelos ayudan a los tendencias y cohortes clave de la superficie de Teskimm de sus datos, y ayudan a crear segmentos de audiencia para atacar mensajes y productos, como para sus negocios de compras y comercios y para contenido patrocinado.

El tercer ejecutivo de publicación dijo que su compañía utiliza Google Gemini y sus servicios para el desarrollo de productos, como la creación de chatbots. Para herramientas de eficiencia interna, el editor utiliza Microsoft Copilot. Actualmente, la compañía está evaluando Google Gemini para integrar las características de IA en el espacio de trabajo de Google (que incluye productos como Gmail, Docs y Reung, entre otros).

Costo consideraciones

Mark Howard, director de operaciones en el momento, dijo que considera los incentivos financieros para trabajar con un LLM en otro (el tiempo tiene un acuerdo de licencia de contenido con OpenAI), así como la oportunidad de participar en el desarrollo futuro de productos para beneficiar al negocio al tener Un asiento en la mesa para ayudar a dar forma a los nuevos productos que pueden ser beneficiosos para los editores.

“Algunos de [these deals] se trata más de ser parte de los nuevos mercados que están desarrollando. Y para mí, la parte que es la más interesante: compañías que buscan realmente construir algo que no exista actualmente. Mientras están construyendolos, preferiría ser parte de eso ”, dijo Howard. El tiempo también tiene tratos con la perplejidad y Prorata, para participar en el programa de participación en los ingresos publicitarios del primero y la estructura de compensación por uso de este último.

Actualmente, Theskimm está utilizando una combinación de modelos de código abierto (como Llama de Meta y Mistral con sede en Francia) y productos comerciales, incluidos los modelos Claude de Anthrope y los modelos GPT de OpenAI.

La compañía sopora los “pros y contras” de pagar tarifas para acceder a las API privadas de LLMS y la opción potencialmente más rentable de organizar sus propios modelos de código abierto, dijo Landau.

Con información de Digiday

Leer la nota Completa > Cómo los editores eligen qué LLMS usar

LEAVE A REPLY

Please enter your comment!
Please enter your name here