La empresa de comercio de videos Firework comenzará a probar un producto de inteligencia artificial generativa para su plataforma de comercio de videos a partir de junio.
A medida que más empresas exploran las funciones de compras en vivo, el objetivo de la solución de compras en vivo con IA generativa de Firework es aumentar la participación del consumidor e impulsar las conversiones, incluso después de que finaliza la transmisión en vivo. Por ejemplo, si un consumidor solicita una receta del video, la IA proporcionará los ingredientes y productos presentados.
Jerry Luk, cofundador y presidente de Firework, dijo que las pruebas internas han arrojado datos limitados hasta el momento, pero se espera que los compradores aprecien tener una función de chat impulsada por IA disponible en cualquier momento. La esperanza es que dar respuestas personalizadas en tiempo real impulse la retención y lealtad de los clientes, así como también aumente las conversiones de ventas.
“Estaban particularmente agradecidos por la naturaleza siempre activa de la herramienta, que les permite recibir respuestas precisas, en tiempo real y contextualmente relevantes incluso después de que finaliza la transmisión en vivo”, dijo Luk. “Al transformar los eventos de transmisión en vivo y los videos a pedido en experiencias de compra interactivas y permanentes que viven en los sitios web de una marca, estamos ayudando a las marcas a conectarse con los clientes en más momentos cuando tienen la intención de comprar”.
A medida que más agencias y plataformas experimentan con las compras en vivo, algunas dicen que ofrece la oportunidad de impulsar la participación en esta creciente área de comercio social y de video. Algunos también han estado probando herramientas generativas de IA y ChatGPT para proyectos internos, trabajo de clientes y contenido creativo. Como Amie Owen, jefa de comercio de EE. UU. en UM Worldwide, mencionó anteriormente, se trata de medios minoristas y comprables que “finalmente se unen” en un solo lugar.
Debido a que la interacción con el comprador tiende a terminar después de una transmisión en vivo, Luk cree que esta característica brindará un nuevo potencial para convertir a los consumidores después de que se vayan. Según los primeros datos, Luk estima que el uso de la herramienta puede aumentar la participación de 10 a 50 veces en comparación con las transmisiones en vivo estándar.El motor de IA utiliza un modelo de lenguaje grande que puede responder en muchos idiomas y se puede personalizar para que coincida con la voz de una marca. Varios expertos de la agencia que Digiday contactó no proporcionaron más comentarios debido a la etapa inicial de este lanzamiento.
Pero otras plataformas de compras en vivo han estado probando una estrategia similar para impulsar el compromiso. Para Adi Ronen Almagor, CEO de la plataforma de compras en vivo y el mercado Buywith, puede haber hasta un 70 % de compromiso con las sesiones en su plataforma, que utiliza funciones como encuestas, calcomanías, chat y pago en sesión.
“Si bien la participación posterior al evento es algo desafiante, al igual que la interacción con un comprador físico una vez que sale de la tienda es un desafío, también hemos desarrollado herramientas y estrategias para ayudar a las marcas con eso”, dijo Almagor.
Cuando finaliza una transmisión en vivo, Buywith enviará mensajes de texto SMS y notificaciones por correo electrónico a los consumidores con los artículos destacados y un código de cupón cuando esté disponible. “De esta manera, mantenemos a los usuarios comprometidos después. Además, alentamos a nuestros creadores a publicar un resumen de la sesión y recomendaciones en sus cuentas de redes sociales. Vemos conversiones típicamente entre 10% y 40%, con muchas compras que ocurren después de que finaliza la transmisión en vivo”, agregó Almagor.
Firework lanzará el chat de IA con su socio existente The Fresh Market, con la empresa de comestibles probando la capacidad de compras en vivo de IA en su sitio web y red de medios minoristas de comercio de video en vivo. En febrero, las dos compañías lanzaron una asociación para usar una red de medios minoristas de comercio en vivo que permite que las marcas publiquen anuncios de video patrocinados en el contenido de transmisión en vivo. La mayoría de las redes de medios minoristas tienden a apoyarse en gran medida en los anuncios gráficos y estáticos.
Kevin Miller, CMO de The Fresh Market, dijo que el valor de por vida del cliente se basa en una interacción fluida en cualquier canal. Además, cualquier servicio al cliente proactivo o reactivo a través de señales de intención o iniciación del cliente debe “ser excelente el 100 % del tiempo”, dijo Miller, y agregó que la herramienta de IA personalizada de Firework puede ayudar a mejorar esa experiencia.
A medida que las redes minoristas de medios aumentan su participación de mercado entre los anunciantes, las nuevas regulaciones de privacidad crean tanto nuevas oportunidades como nuevos riesgos.
Como parte del mundo más amplio de los medios de comercio, las redes de medios minoristas se ubican junto al comercio electrónico y también compiten con los canales de comercio electrónico por los dólares de los anunciantes. Pero cuando se trata de privacidad de datos, la industria en general enfrenta varios niveles de riesgo: las cookies, los píxeles y los rastreadores en los sitios web de las empresas podrían exponer inadvertidamente los datos de los compradores, según un estudio realizado porLokker, una empresa de tecnología de privacidad, que analizó los 100 principales sitios web de comercio electrónico en los EE. UU.
Algunos minoristas han operado sus propias redes de medios minoristas durante años. Sin embargo, más han creado, revisado y ampliado recientemente sus propias plataformas de ventas basadas en datos para atraer a nuevos anunciantes que buscan llegar a los compradores, en parte gracias al mayor apetito de los especialistas en marketing por datos propios para reemplazar las cookies de terceros en medio de estándares de privacidad más estrictos. Pero incluso si la gran cantidad de regulaciones que entran en vigor en los EE. UU. alimenta aún más el auge de los medios minoristas, algunos expertos dicen que deja a las agencias para navegar por una mayor fragmentación y nuevas áreas grises legales.
Desde que California aprobó nuevas protecciones de privacidad a raíz del escándalo de Cambridge Analytica de 2018, un número creciente de otros estados han seguido recientemente el ejemplo con sus propias versiones a medida que el Congreso continúa explorando la legislación federal. Además del Estado Dorado, otras leyes entrarán en vigencia este año en Colorado, Connecticut, Virginia y Utah, seguidas de Iowa en 2025. También se han firmado leyes en Montana, Oklahoma, Indiana y New Hampshire y otra docena de estados tienen estatutos. o facturas en curso. A medida que las leyes estatales entran en vigencia y los consumidores se vuelven más conscientes de cómo funciona el seguimiento de anuncios, los especialistas en marketing y los defensores de los consumidores están siguiendo de cerca las tasas de aceptación y exclusión de varios métodos de intercambio de datos.
Con la promesa de ofrecer más datos de primera y segunda parte y millones de compradores basados en la intención, las empresas han creado una serie de nuevas capacidades a través de herramientas internas y nuevas asociaciones con redes sociales y empresas de tecnología publicitaria. Por ejemplo, Dollar General anunció una nueva asociación con Meta en marzo para ayudar a llegar a los clientes que viven en áreas rurales.
En Dollar General, el crecimiento está “superando nuestras expectativas”, dijo Chad Fox, director de marketing de la cadena de descuento. En lugar de ser solo una red de medios minorista, dijo que la estrategia de Dollar General se centra en ser también un proveedor de audiencia, con entre el 10% y el 20% de su red de medios en el sitio, mientras que el resto está fuera del sitio, según Fox. Desde el lanzamiento de su plataforma a principios de 2022, la red de medios de Dollar General se ha expandido de 21 anunciantes a 51 socios ahora, con planes de incorporar otros 100 anunciantes para el próximo año.
A pesar de que el crecimiento de los medios minoristas fue impulsado en gran medida por la desaprobación de las cookies de terceros, algunos expertos dicen que el sector aún carece de protecciones de manera similar a otras partes del ecosistema de publicidad digital. El panorama fragmentado de las políticas de privacidad en diferentes estados y en varias plataformas también hace que algunos se pregunten si los datos de medios minoristas de calidad pueden ser escalables y duraderos.
También hay preguntas sobre cómo las leyes estatales de privacidad y los estándares de la industria abordan varios tipos de datos confidenciales. Los reguladores como la Oficina de Protección Financiera del Consumidor y la Comisión Federal de Comercio se han centrado cada vez más en encontrar formas de proteger a los consumidores de prácticas comerciales potencialmente dañinas. Las redes sociales se han enfrentado a críticas por la forma en que utilizan datos demográficos confidenciales para la orientación de anuncios, señales de las que empresas como Meta y Google se han alejado desde entonces, pero algunos expertos en privacidad se preguntan cómo los minoristas recopilarán, usarán y almacenarán de forma segura información financiera como la información de pago. y registros de transacciones. Algunas redes minoristas y empresas de tecnología publicitaria dicen que no usan información de identificación personal para el seguimiento de anuncios, pero la naturaleza del comercio electrónico deja algunas áreas grises.
“Este tema de los datos confidenciales va a generar más consideración y diálogo donde todavía no veo nada parecido a la estandarización dentro de la industria”, dijo Arielle García, directora de privacidad de la agencia de medios UM Worldwide, propiedad de IPG.
Los ejecutivos de las agencias también se preguntan con qué facilidad los consumidores administrarán los controles de privacidad en varias redes de medios minoristas y cómo esas preferencias afectarán la medición y la orientación de los anuncios. Sin embargo, la fragmentación está causando más preocupaciones a los anunciantes que a los minoristas, dijo Adam Skinner, CTO de CitrusAd, propiedad de Publicis.
“Debe tener cuidado con el destino de sus datos como minorista”, dijo Skinner. “Comienzas a restar importancia a la estrategia del jardín amurallado cuando comienzas a enviar datos a fuentes de terceros como Pinterest y Facebook. No sabes a dónde van tus datos”.
La cantidad de personas que administran activamente la configuración de cookies parece estar aumentando con los años, dijo Jennifer Kohl, directora ejecutiva de VMLY&R y directora de medios de EE. UU. Según Kohl, alrededor de un tercio de las personas acepta solo las cookies necesarias, otro tercio selecciona ciertas y el tercio restante no parece hacer ningún cambio. Aunque las empresas han estado en alerta sobre la privacidad de los datos durante un tiempo, dijo que a más clientes les preocupa que las nuevas leyes puedan ser más “duras” en lo que respecta a la elaboración y aplicación de reglas.
“Espero que con el tiempo sea impulsado más por los consumidores que por los abogados”, dijo Kohl. “Creo que existe una tolerancia de los datos que los consumidores comparten”.
Es posible que los desafíos que enfrentan los medios minoristas no superen necesariamente sus beneficios, argumentó Mike Froggatt, analista de Gartner. Además del panorama fragmentado de los medios minoristas, dijo que los anunciantes también están viendo caer sus propias tasas de suscripción en lugares como California y que la mayoría de las marcas están limitando las compras de anuncios a solo tres o cuatro socios de medios minoristas. Por otro lado, dijo que los minoristas también ofrecen potencialmente a los clientes ventajas únicas al brindarles ofertas concretas como descuentos y recomendaciones personalizadas de productos.
“Con el valor de la privacidad, las personas no se dan cuenta de su valor hasta que se les dice”, dijo Froggatt. “Así que tal vez piensen que vale la pena por un cupón, pero tal vez no valga la pena si reciben muchos correos electrónicos no deseados”.
En lugar de confiar en la información de identificación personal, algunas redes de medios minoristas y sus socios priorizan la intención de búsqueda y los filtros de compra. La red de medios de Kroger no se basa en la información demográfica, sino en el comportamiento de compra anterior y otras señales, según Michael Schuh, vicepresidente de estrategia de medios y productos de Kroger Precision Marketing.
Brian Gleason, director de ingresos de Criteo, una empresa de tecnología publicitaria que trabaja con redes de medios minoristas, dijo que la legislación “ayuda inmensamente a los medios de comercio”.
“El valor de sus datos se vuelve aún más brillante en el sentido de que si hay malos actores en un ecosistema, y creo que eso es lo que estamos tratando de eliminar con parte de esta legislación, le da valor a los minoristas y sus oportunidades de medios. ”, dijo Gleason.
En una desviación significativa de sus prácticas anteriores, OpenAI ha anunciado que ya no utilizará los datos de los clientes enviados a través de sus API para entrenar sus modelos de lenguaje expansivos, como GPT-4.
El cambio fue confirmado por Sam Altman, el CEO de OpenAI, en una entrevista reciente con CNBC.
El nuevo enfoque de OpenAI para los datos de usuario
El cambio de política de OpenAI se implementó el 1 de marzo de 2023, cuando la empresa actualizó silenciosamente sus términos de servicio para reflejar este nuevo compromiso con la privacidad del usuario.
Altman aclaró: “Los clientes claramente quieren que no capacitemos sobre sus datos, por lo que hemos cambiado nuestros planes: no haremos eso”.
Las API, o interfaces de programación de aplicaciones, son marcos tecnológicos que permiten a los clientes conectarse directamente al software de OpenAI.
Altman declaró que OpenAI no ha estado usando datos de API para el entrenamiento de modelos “por un tiempo”, lo que sugiere que este anuncio oficial formaliza una práctica existente.
Implicaciones para los clientes comerciales
El movimiento de OpenAI tiene implicaciones de gran alcance, particularmente para sus clientes comerciales, que incluyen gigantes como Microsoft, Salesforce y Snapchat.
Es más probable que estas empresas utilicen las capacidades de API de OpenAI para sus operaciones, por lo que el cambio de privacidad y protección de datos es particularmente relevante para ellas.
Sin embargo, las nuevas medidas de protección de datos se aplican únicamente a los clientes que utilizan los servicios API de la empresa. Nota de los términos de servicio actualizados de OpenAI, “Podemos usar contenido de servicios distintos de nuestra API”.
Como tal, OpenAI aún puede utilizar otras formas de ingreso de datos, como el texto ingresado en el popular chatbot ChatGPT, a menos que los datos se compartan a través de la API.
Impacto más amplio en la industria
El cambio de política de OpenAI se produce cuando las industrias lidian con los impactos potenciales de los grandes modelos de lenguaje, como ChatGPT de OpenAI, que reemplazan el material tradicionalmente creado por humanos.
Por ejemplo, el Sindicato de Escritores de Estados Unidos comenzó recientemente la huelga después de que se rompieron las negociaciones entre el Sindicato y los estudios cinematográficos. El Gremio había estado abogando por restricciones en el uso de ChatGPT de OpenAI para la generación o reescritura de scripts.
La decisión de OpenAI de no utilizar los datos de los clientes para la capacitación marca un momento crucial en la conversación en curso sobre la privacidad de los datos y la IA. A medida que las empresas continúan explorando y ampliando los límites de la tecnología de IA, es probable que garantizar la privacidad del usuario y mantener la confianza siga siendo un tema central en estas discusiones.
La evolución de ChatGPT: GPT-3 a GPT-4
Es importante tener en cuenta que el compromiso de OpenAI de no utilizar los datos de los clientes para la formación se aplica a su último modelo de lenguaje, GPT-4, lanzado el 14 de marzo de 2023.
GPT-4 introdujo varias mejoras con respecto a su predecesor, GPT-3, incluido un aumento significativo en el tamaño del límite de palabras (25 000 en comparación con el límite de 3000 palabras de ChatGPT), un mayor tamaño de la ventana de contexto y mejores capacidades de razonamiento y comprensión.
Otra característica notable de GPT-4 es su multimodalidad, o la capacidad de comprender e inferir información de imágenes además de texto. Este último modelo genera textos más parecidos a los humanos, utilizando funciones como emojis para una sensación más personalizada.
Sin embargo, el tamaño exacto y la arquitectura de GPT-4 siguen sin revelarse, lo que genera especulaciones sobre los detalles del modelo.
A pesar de estos rumores, el CEO de OpenAI ha negado afirmaciones específicas sobre el tamaño del modelo.
En cuanto al rendimiento, GPT-4 ha demostrado fortalezas en la generación de texto, pero también algunas limitaciones. Por ejemplo, obtuvo un puntaje en el percentil 54 en el Examen de registro de posgrado (GRE) Escritura y se desempeñó en el percentil 43 a 59 en el examen AP Calculus BC.
Además, se desempeñó bien en las tareas de codificación fáciles de Leetcode, pero su rendimiento disminuyó con el aumento de la dificultad de la tarea.
Si bien los detalles del proceso de capacitación de GPT-4 no están documentados oficialmente, se sabe que los modelos GPT generalmente involucran aprendizaje automático a gran escala con una amplia gama de texto de Internet.
Pensando en el futuro
Como resultado de los cambios en la política de uso de datos de OpenAI, los datos utilizados para entrenar sus modelos de lenguaje no incluyen información compartida a través de la API, a menos que los usuarios acepten explícitamente contribuir con este propósito.
Si bien esta tecnología mejora y juega un papel más importante en nuestras vidas, es interesante cómo las empresas giran y responden a las preocupaciones sobre mantener la privacidad de los datos y ganarse la confianza de las personas.
Imagen destacada generada por el autor usando Midjourney.
Ray Kurzweil, un destacado futurista y director de ingeniería de Google, publicó una refutación a la carta que pedía una pausa en la investigación de IA, ofreciendo razones por las que la propuesta no es práctica y priva a la humanidad de avances médicos e innovaciones que benefician profundamente a la humanidad.
Carta internacional para pausar el desarrollo de IA
Una carta abierta firmada por científicos y celebridades de todo el mundo (publicada en FutureOfLife.org) pidió una pausa completa en el desarrollo de IA que sea más poderosa que GPT-4, la última versión creada por OpenAI.
Además de detener un mayor desarrollo de la IA, también pidieron el desarrollo de protocolos de seguridad supervisados por expertos independientes externos.
Algunos de los puntos que hacen los autores de la carta abierta:
La IA plantea un riesgo profundo
El desarrollo de la IA solo debe proceder una vez que se enumeran y justifican las aplicaciones beneficiosas de la tecnología.
AI solo debe proceder si “nosotros” (los miles de firmantes de la carta) estamos seguros de que los riesgos de AI son manejables.
Los desarrolladores de IA están llamados a trabajar junto con los formuladores de políticas para desarrollar sistemas de gobernanza de IA que consisten en organismos reguladores.
El desarrollo de tecnologías de marcas de agua para ayudar a identificar el contenido creado por IA y para controlar la difusión de la tecnología.
Un sistema de asignación de responsabilidad por daños creado por IA
Creación de instituciones para hacer frente a las disrupciones causadas por la tecnología de IA
La carta parece provenir de un punto de vista de que la tecnología de IA está centralizada y puede ser pausada por las pocas organizaciones que controlan la tecnología. Pero la IA no está exclusivamente en manos de gobiernos, institutos de investigación y corporaciones.
AI es en este punto una tecnología de código abierto y descentralizada, desarrollada por miles de personas en una escala global de colaboración.
Ray Kurzweil: futurista, autor y director de ingeniería de Google
Ray Kurzweil ha estado diseñando software y máquinas centradas en la inteligencia artificial desde la década de 1960, ha escrito muchos libros populares sobre el tema y es famoso por hacer predicciones sobre el futuro que tienden a ser correctas.
De 147 predicciones que hizo sobre la vida en 2009, solo tres predicciones, un total del 2%, fueron incorrectas.
Entre sus predicciones en la década de 1990 está que muchos medios físicos, como los libros, perderán popularidad a medida que se digitalicen. En un momento de la década de 1990 cuando las computadoras eran grandes y voluminosas, predijo que las computadoras serían lo suficientemente pequeñas como para usarlas en 2009, lo que resultó ser cierto (Cómo van mis predicciones – 2010 PDF).
Las predicciones recientes de Ray Kurzweil se centran en todo lo bueno que traerá la IA, particularmente en los avances médicos y científicos.
Kurzweil también se centra en la ética de la IA.
En 2017 fue uno de los participantes (junto con el CEO de OpenAI, Sam Altman) que elaboró una carta abierta conocida como los Principios de IA de Asilomar que también se publicaron en el sitio web Future of Life, pautas para el desarrollo seguro y ético de las tecnologías de Inteligencia Artificial.
Entre los principios que ayudó a crear:
“El objetivo de la investigación de la IA no debe ser crear inteligencia no dirigida, sino inteligencia beneficiosa.
Las inversiones en IA deben ir acompañadas de financiación para la investigación para garantizar su uso beneficioso
Debería haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.
La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos correspondientes.
La superinteligencia solo debe desarrollarse al servicio de ideales éticos ampliamente compartidos y para el beneficio de toda la humanidad en lugar de un solo estado u organización”.
La respuesta de Kurzweil a la carta abierta que pedía una pausa en el desarrollo de la IA provino de toda una vida de tecnología innovadora desde el punto de vista de todo el bien beneficioso que puede hacer por la humanidad y el mundo natural.
Su respuesta se centró en tres puntos principales:
La llamada a una pausa es demasiado vaga para ser práctica
Todas las naciones deben estar de acuerdo con la pausa o los objetivos son derrotados desde el principio.
Una pausa en el desarrollo ignora los beneficios, como identificar curas para enfermedades.
Demasiado vago para ser práctico
Su primer punto sobre la carta es que es demasiado vaga porque está provocando una pausa en la IA que es más poderosa que GPT-4, lo que supone que GPT-4 es el único tipo de IA.
Kurzweil escribió:
“Con respecto a la carta abierta para “pausar” la investigación sobre IA “más poderosa que GPT-4”, este criterio es demasiado vago para ser práctico”.
Las naciones optarán por salir de la pausa
Su segundo punto es que las demandas descritas en la carta solo pueden funcionar si todos los investigadores del mundo cooperan voluntariamente.
Cualquier nación que se niegue a firmar tendrá la ventaja, que es probablemente lo que sucedería.
El escribe:
“Y la propuesta enfrenta un serio problema de coordinación: aquellos que estén de acuerdo con una pausa pueden quedar muy por detrás de las corporaciones o naciones que no están de acuerdo”.
Este punto deja en claro que el objetivo de una pausa completa no es viable, porque las naciones no cederán una ventaja y, además, la IA está democratizada y es de código abierto, en manos de personas de todo el mundo.
La IA aporta beneficios significativos a la IA
Ha habido editoriales que descartan la IA por tener muy pocos beneficios para la sociedad, argumentando que aumentar la productividad de los trabajadores no es suficiente para justificar los riesgos que temen.
El punto final de Kurzweil es que la carta abierta que busca una pausa en el desarrollo de la IA ignora por completo todo el bien que la IA puede hacer.
El explica:
“Existen enormes beneficios para el avance de la IA en campos críticos como la medicina y la salud, la educación, la búsqueda de fuentes de energía renovables para reemplazar los combustibles fósiles y muchos otros campos.
… se necesitan más matices si deseamos desbloquear las profundas ventajas de la IA para la salud y la productividad mientras evitamos los peligros reales”.
Peligros, Miedo a lo Desconocido y Beneficios para la Humanidad
Kurzweil destaca cómo la IA puede beneficiar a la sociedad. Su punto de que no hay forma de pausar la IA es sólido.
Su explicación de la IA enfatiza los profundos beneficios para la humanidad que son inherentes a la IA.
¿Podría ser que la implementación de OpenAI de la IA como un chatbot trivializa la IA y eclipsa el beneficio para la humanidad, al mismo tiempo que asusta a las personas que no entienden cómo funciona la IA generativa?
Una nota filtrada de Google ofrece un resumen punto por punto de por qué Google está perdiendo frente a la IA de código abierto y sugiere un camino de regreso al dominio y a la propiedad de la plataforma.
El memorando comienza reconociendo que su competidor nunca fue OpenAI y siempre iba a ser de código abierto.
No puede competir contra el código abierto
Además, admiten que no están posicionados de ninguna manera para competir contra el código abierto, reconociendo que ya han perdido la lucha por el dominio de la IA.
Ellos escribieron:
“Hemos mirado mucho sobre nuestros hombros en OpenAI. ¿Quién cruzará el próximo hito? ¿Cuál será el próximo movimiento?
Pero la verdad incómoda es que no estamos posicionados para ganar esta carrera armamentista y OpenAI tampoco. Mientras nos peleamos, una tercera facción ha estado comiendo nuestro almuerzo en silencio.
Estoy hablando, por supuesto, de código abierto.
En pocas palabras, nos están lamiendo. Las cosas que consideramos “principales problemas abiertos” están resueltas y en manos de la gente hoy”.
La mayor parte del memorando se dedica a describir cómo el código abierto supera a Google.
Y aunque Google tiene una ligera ventaja sobre el código abierto, el autor del memorándum reconoce que se está escapando y nunca volverá.
El autoanálisis de las cartas metafóricas que ellos mismos han repartido es considerablemente pesimista:
“Mientras que nuestros modelos todavía tienen una ligera ventaja en términos de calidad, la brecha se está cerrando asombrosamente rápido.
Los modelos de código abierto son más rápidos, más personalizables, más privados y, libra por libra, más capaces.
Están haciendo cosas con parámetros de $ 100 y 13 mil millones con los que luchamos a $ 10 millones y 540 mil millones.
Y lo están haciendo en semanas, no en meses”.
El tamaño grande del modelo de idioma no es una ventaja
Quizás la realización más escalofriante expresada en el memorando es que el tamaño de Google ya no es una ventaja.
El tamaño extravagantemente grande de sus modelos ahora se ve como desventajas y de ninguna manera como la ventaja insuperable que pensaban que eran.
El memorando filtrado enumera una serie de eventos que indican que el control de la IA por parte de Google (y OpenAI) puede terminar rápidamente.
Cuenta que hace apenas un mes, en marzo de 2023, la comunidad de código abierto obtuvo un modelo de código abierto filtrado de lenguaje grande desarrollado por Meta llamado LLaMA.
En cuestión de días y semanas, la comunidad global de código abierto desarrolló todas las piezas de construcción necesarias para crear clones de Bard y ChatGPT.
Pasos sofisticados como el ajuste de instrucciones y el aprendizaje reforzado a partir de comentarios humanos (RLHF) fueron replicados rápidamente por la comunidad global de código abierto, nada menos que a bajo precio.
Ajuste de instrucciones Un proceso de ajuste fino de un modelo de lenguaje para que haga algo específico para lo que no estaba capacitado inicialmente.
Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) Una técnica en la que los humanos califican la salida de un modelo de lenguaje para que aprenda qué salidas son satisfactorias para los humanos.
RLHF es la técnica utilizada por OpenAI para crear InstructGPT, que es un modelo subyacente de ChatGPT y permite que los modelos GPT-3.5 y GPT-4 tomen instrucciones y completen tareas.
RLHF es el fuego que el código abierto ha tomado de
La escala del código abierto asusta a Google
Lo que asusta a Google en particular es el hecho de que el movimiento de código abierto puede escalar sus proyectos de una manera que el código cerrado no puede.
El conjunto de datos de preguntas y respuestas utilizado para crear el clon de ChatGPT de código abierto, Dolly 2.0, fue creado en su totalidad por miles de empleados voluntarios.
Google y OpenAI se basaron parcialmente en preguntas y respuestas extraídas de sitios como Reddit.
Se afirma que el conjunto de datos de preguntas y respuestas de código abierto creado por Databricks es de mayor calidad porque los humanos que contribuyeron a crearlo eran profesionales y las respuestas que proporcionaron fueron más largas y más sustanciales que las que se encuentran en un conjunto de datos típico de preguntas y respuestas extraído de un foro publico.
La nota filtrada observó:
“A principios de marzo, la comunidad de código abierto consiguió su primer modelo base realmente capaz, ya que LLaMA de Meta se filtró al público.
No tenía instrucciones ni sintonización de conversación, ni RLHF.
Sin embargo, la comunidad entendió de inmediato el significado de lo que se les había dado.
Siguió una tremenda efusión de innovación, con solo unos días entre los principales desarrollos…
Aquí estamos, apenas un mes después, y hay variantes con ajuste de instrucciones, cuantización, mejoras de calidad, evaluaciones humanas, multimodalidad, RLHF, etc., muchas de las cuales se complementan entre sí.
Lo más importante es que han resuelto el problema de la escala en la medida en que cualquiera puede modificarlo.
Muchas de las nuevas ideas provienen de la gente común.
La barrera de entrada para la capacitación y la experimentación se ha reducido de la producción total de una importante organización de investigación a una persona, una noche y una computadora portátil robusta”.
En otras palabras, lo que tomó meses y años para que Google y OpenAI entrenaran y construyeran, solo tomó unos días para la comunidad de código abierto.
Ese tiene que ser un escenario verdaderamente aterrador para Google.
Es una de las razones por las que he estado escribiendo tanto sobre el movimiento de la IA de código abierto, ya que realmente parece que el futuro de la IA generativa estará en un período de tiempo relativamente corto.
El código abierto ha superado históricamente al código cerrado
El memorándum cita la experiencia reciente con DALL-E de OpenAI, el modelo de aprendizaje profundo utilizado para crear imágenes en comparación con la difusión estable de código abierto como un presagio de lo que está ocurriendo actualmente en la IA generativa como Bard y ChatGPT.
OpenAI lanzó Dall-e en enero de 2021. Stable Diffusion, la versión de código abierto, se lanzó un año y medio después, en agosto de 2022, y en unas pocas semanas superó la popularidad de Dall-E.
Este gráfico de línea de tiempo muestra qué tan rápido Stable Diffusion superó a Dall-E:
La línea de tiempo de Google Trends anterior muestra cómo el interés en el modelo de difusión estable de código abierto superó ampliamente al de Dall-E en cuestión de tres semanas de su lanzamiento.
Y aunque Dall-E estuvo fuera durante un año y medio, el interés en Stable Diffusion siguió aumentando exponencialmente, mientras que Dall-E de OpenAI permaneció estancado.
La amenaza existencial de que eventos similares superen a Bard (y OpenAI) le está dando pesadillas a Google.
El proceso de creación del modelo de código abierto es superior
Otro factor que alarma a los ingenieros de Google es que el proceso para crear y mejorar los modelos de código abierto es rápido, económico y se presta perfectamente a un enfoque colaborativo global común a los proyectos de código abierto.
El memorándum observa que las nuevas técnicas como LoRA (Adaptación de rango bajo de modelos de lenguaje grande), permiten el ajuste fino de los modelos de lenguaje en cuestión de días con un costo extremadamente bajo, con el LLM final comparable a los LLM mucho más caros. creado por Google y OpenAI.
Otro beneficio es que los ingenieros de código abierto pueden construir sobre el trabajo anterior, iterar, en lugar de tener que empezar desde cero.
Construir grandes modelos de lenguaje con miles de millones de parámetros en la forma en que OpenAI y Google lo han estado haciendo hoy en día no es necesario.
Ese puede ser el punto que Sam Alton insinuó recientemente cuando dijo que la era de los modelos masivos de lenguaje grande ha terminado.
El autor del memorándum de Google comparó el enfoque barato y rápido de LoRA para crear LLM con el enfoque actual de la gran IA.
El autor del memorando reflexiona sobre las deficiencias de Google:
“Por el contrario, entrenar modelos gigantes desde cero no solo descarta el entrenamiento previo, sino también cualquier mejora iterativa que se haya realizado en la parte superior. En el mundo del código abierto, no pasa mucho tiempo antes de que dominen estas mejoras, lo que hace que una capacitación completa sea extremadamente costosa.
Deberíamos considerar si cada nueva aplicación o idea realmente necesita un modelo completamente nuevo.
… De hecho, en términos de horas de ingeniería, el ritmo de mejora de estos modelos supera ampliamente lo que podemos hacer con nuestras variantes más grandes, y los mejores ya son en gran medida indistinguibles de ChatGPT”.
El autor concluye dándose cuenta de que lo que pensaban que era su ventaja, sus modelos gigantes y el costo prohibitivo concomitante, en realidad era una desventaja.
La naturaleza de colaboración global del código abierto es más eficiente y mucho más rápida en la innovación.
¿Cómo puede un sistema de código cerrado competir contra la abrumadora multitud de ingenieros de todo el mundo?
El autor concluye que no pueden competir y que la competencia directa es, en sus palabras, una “propuesta perdedora”.
Esa es la crisis, la tormenta, que se está desarrollando fuera de Google.
Si no puedes vencer el código abierto, únete a ellos
El único consuelo que el autor de la nota encuentra en el código abierto es que, debido a que las innovaciones de código abierto son gratuitas, Google también puede aprovecharlas.
Por último, el autor concluye que el único enfoque disponible para Google es poseer la plataforma de la misma manera que dominan las plataformas de código abierto Chrome y Android.
Señalan cómo Meta se está beneficiando del lanzamiento de su modelo de lenguaje grande LLaMA para la investigación y cómo ahora tienen a miles de personas haciendo su trabajo de forma gratuita.
Quizás la gran conclusión del memorándum es que, en un futuro cercano, Google puede intentar replicar su dominio de código abierto lanzando sus proyectos sobre una base de código abierto y, por lo tanto, poseer la plataforma.
El memorando concluye que pasar al código abierto es la opción más viable:
“Google debería establecerse como líder en la comunidad de código abierto, tomando la iniciativa cooperando con, en lugar de ignorar, la conversación más amplia.
Esto probablemente signifique tomar algunos pasos incómodos, como publicar los pesos del modelo para variantes pequeñas de ULM. Esto necesariamente significa renunciar a cierto control sobre nuestros modelos.
Pero este compromiso es inevitable.
No podemos esperar impulsar la innovación y controlarla”.
El código abierto se va con el fuego de la IA
La semana pasada hice una alusión al mito griego del héroe humano Prometeo robando el fuego de los dioses en el Monte Olimpo, enfrentando el código abierto de Prometeo contra los “dioses olímpicos” de Google y OpenAI:
“Mientras Google, Microsoft y Open AI se pelean entre sí y se dan la espalda, ¿el código abierto se está yendo con su fuego?”
La filtración del memorando de Google confirma esa observación, pero también apunta a un posible cambio de estrategia en Google para unirse al movimiento de código abierto y, por lo tanto, cooptarlo y dominarlo de la misma manera que lo hicieron con Chrome y Android.
En un panorama tecnológico en rápida evolución, las principales marcas como Amazon, Google y Microsoft invierten mucho en inteligencia artificial (IA) para mantener su ventaja competitiva y mejorar sus servicios.
Estas empresas aprovechan la IA para asistencia con la codificación, optimización de publicidad, mejoras de productividad, ciberseguridad y más.
A medida que se intensifica la carrera por el dominio de la IA, los líderes de la industria han presentado planes ambiciosos para integrar soluciones impulsadas por la IA, lo que genera debates sobre el impacto potencial de la IA en los clientes, las empresas y la sociedad.
Obtenga más información sobre las empresas de avances de IA reveladas durante o antes de las primeras llamadas de ganancias de 2023.
Amazonas
Andy Jassy, CEO de Amazon, habló sobre la última IA para Amazon Web Services.
Bedrock es un servicio administrado que simplifica la creación y el escalado de aplicaciones de inteligencia artificial generativa de nivel empresarial al proporcionar acceso a varios modelos básicos, incluidos AI21 Labs, Anthropic, Stability AI y la familia Titan exclusiva de AWS.
Inferentia2 y Trn1n son dos modelos de lenguaje grande (LLM) de próxima generación con mejor rendimiento de precios y ahorros en costos de capacitación.
CodeWhisperer, un compañero de codificación de IA que proporciona sugerencias de código en tiempo real, está disponible para los desarrolladores de AWS.
Jassy enfatizó que AWS continuará innovando, citando el anuncio reciente sobre LLM, IA generativa y chips relacionados y servicios administrados con la esperanza de que el próximo aumento en el aprendizaje automático impulse nuevos negocios en la nube significativos.
Chegg
Dan Rosensweig, director ejecutivo de Chegg, afirmó que “la IA generativa y los modelos de lenguaje extenso afectarán a la sociedad y los negocios, tanto positiva como negativamente. A un ritmo más rápido de lo que la gente está acostumbrada”.
Después de una conversación con Sam Altman sobre el papel de la IA en la educación, Rosensweig cambió rápidamente el enfoque de Chegg para enfatizar la integración y adopción de la IA dentro de sus ofertas.
En asociación con OpenAI, Chegg desarrolló CheggMate, un asistente de tareas con tecnología GPT-4. Combina datos patentados con el conocimiento de más de 150 000 expertos en la materia para mejorar la precisión.
Rosensweig mantuvo el optimismo sobre los planes para el compañero de aprendizaje de IA confiable y en tiempo real.
Desafortunadamente, ofrecer claridad sobre cómo ChatGPT puede haber impactado en las nuevas suscripciones de Chegg condujo a una caída del 40% en el precio de las acciones.
buzón
Drew Houston, CEO de Dropbox, expresó su entusiasmo por la IA y un nuevo objetivo estratégico este año para ir más allá de los archivos y organizar todo el contenido de la nube para los clientes.
Houston destacó la nueva era del trabajo de conocimiento aumentado, donde los avances en inteligencia artificial y aprendizaje automático permiten a los equipos abordar tareas complejas y mejorar la productividad. Dado que las herramientas en la nube y el trabajo remoto crean entornos de trabajo caóticos, Dropbox tiene como objetivo ayudar a los usuarios a organizar y simplificar sus vidas con búsquedas universales y sugerencias de contenido.
A pesar de los desafíos económicos, Houston se mantuvo optimista y enfatizó la escala de Dropbox, la neutralidad de la plataforma, la marca confiable y el sólido balance general como fortalezas clave para navegar tiempos difíciles e invertir en el futuro.
Una semana antes de la llamada de ganancias, Houston publicó un memorando para los empleados. Anunció el despido de 500 empleados debido al lento crecimiento de la empresa y la necesidad de cambiar los recursos a la IA, ya que “la próxima etapa de crecimiento requiere una combinación diferente de conjuntos de habilidades, particularmente en IA y desarrollo de productos en etapa inicial. Hemos estado trayendo gran talento en estas áreas durante los últimos dos años, y necesitaremos aún más”.
Duolingo
En la próxima convocatoria de ganancias, es probable que los inversores escuchen sobre el uso de la IA en la educación por parte de Duolingo.
Al igual que Chegg, Duolingo se asoció con OpenAI para incorporar GPT-4 en su servicio. Duolingo Max usa IA generativa para responder preguntas relacionadas con la traducción y actuar como un compañero de idioma para la práctica conversacional.
Estos desarrollos se alinean con los pensamientos de una charla TED con Sal Khan, director ejecutivo de Khan Academy: La IA puede brindar a cada estudiante (con acceso) un tutor de IA y a cada maestro (con acceso) un asistente de IA.
Google
Sundar Pichai, CEO de Alphabet y Google, actualizó a los inversores sobre los avances recientes en IA.
Bard, el servicio de inteligencia artificial conversacional, ahora utiliza el modelo PaLM. Esto permite que Bard ayude en la codificación de proyectos de desarrollo.
Las herramientas PaLM API y MakerSuite permiten a los desarrolladores crear aplicaciones de IA generativas rápidamente.
Las organizaciones pueden utilizar funciones de IA generativa en Google Cloud Platform y Workspace.
Google Search aprovechará la IA generativa para ofrecer nuevas experiencias de búsqueda conversacional.
Google Ads aprovechará la IA para ayudar a los anunciantes a optimizar y administrar las campañas publicitarias de manera más efectiva.
Pichai cerró su presentación entusiasmado por “ayudar a las personas, las empresas y la sociedad a alcanzar su máximo potencial con la IA. ”
Philipp Schindler, vicepresidente sénior y CBO de Google, se refirió a la IA en las campañas de relevancia de palabras clave de búsqueda, Smart Bidding y Performance Max. En concreto, Google:
Se actualizó la relevancia de la palabra clave de búsqueda utilizando la IA de lenguaje natural basada en el modelo MUM, lo que mejora la relevancia y el rendimiento de los anuncios cuando varias palabras clave superpuestas son elegibles para una subasta.
Modelos mejorados de Smart Bidding para ofertar con mayor precisión en función de las diferencias de formato de anuncios de búsqueda, lo que permite ofertas más efectivas según las preferencias de participación del usuario.
Acceso ampliado a la versión beta de Activos creados automáticamente (ACA) para todos los anunciantes de habla inglesa, lo que les permite generar activos de texto con anuncios de búsqueda receptivos y usar IA para minimizar el trabajo manual y mantener creatividades frescas y relevantes.
Alentó a los anunciantes a vincular la búsqueda principal con Performance Max, lo que supuestamente resultó en más de un 18 % más de conversiones con un CPA similar en promedio, un aumento de 5 puntos en 14 meses.
Hizo avances en IA que respaldan las ofertas, las creatividades, la coincidencia de consultas de búsqueda y nuevos formatos como YouTube Shorts, lo que contribuyó a mejorar los resultados.
“La IA ha sido durante mucho tiempo un importante impulsor de nuestro negocio. Los avances están potenciando nuestra capacidad para ayudar a las empresas, grandes y pequeñas, a responder en tiempo real a los rápidos cambios del mercado y de los consumidores y ofrecer un ROI medible cuando más se necesita”.
Ruth Porat, directora financiera de Alphabet y Google, guió a los inversores a través del uso de IA en Google Workspace para mejorar la productividad interna. Porat también notó un ritmo de contratación intencionalmente más lento y un enfoque continuo en Google DeepMind, adquirida en 2014.
Meta
Mark Zuckerberg, CEO de Meta, hizo de la IA el tema clave de la convocatoria de ganancias de Meta.
Más del 20 % del feed de Facebook e Instagram está lleno de contenido elegido por IA de perfiles, páginas y grupos que no sigues.
Se podrían poner a disposición de millones de agentes útiles de IA a través de WhatsApp y Messenger para mensajes comerciales, atención al cliente y más.
Se requerirá una inversión continua en infraestructura para admitir nuevos LLM y escalamiento de productos de IA generativa.
Susan Li, CFO de Meta, explicó cómo la IA podría ofrecer a los anunciantes una mayor automatización a través de Advantage+ Shopping y que los gastos de capital reflejaban “la creación continua de capacidad de IA para respaldar anuncios, Feed y Reels, junto con una mayor inversión en capacidad para nuestras iniciativas de IA generativa”. .”
Durante la sesión de preguntas y respuestas, en respuesta a una pregunta sobre la contratación, Li señaló que Meta había estado congelada durante los últimos seis meses y, cuando se reanudara la contratación, sería para talento en inteligencia artificial generativa, anuncios, infraestructura y otros productos nuevos.
microsoft
Durante una llamada de ganancias reciente, Satya Nadella, CEO de Microsoft, destacó el enfoque y el futuro de la compañía en IA.
Azure, el servicio de cómputo en la nube de Microsoft, ganó participación de mercado a medida que los clientes continuaron eligiéndolo para aplicaciones impulsadas por IA.
Azure OpenAI Service, que combina modelos avanzados como ChatGPT y GPT-4 con las capacidades de Azure, ha visto un aumento de diez veces en el QoQ de los clientes.
GitHub Copilot y Dynamics 365 Copilot para sistemas CRM y ERP mostraron el compromiso de Microsoft para mejorar la productividad a través de la IA.
Microsoft 365 Copilot, Viva Sales y Security Copilot demostraron la integración de IA en varios aspectos del negocio.
Amy Hood, CFO de Microsoft, reveló que la compañía espera un crecimiento saludable de los ingresos en el trimestre más grande del año debido a la demanda de los clientes de soluciones diferenciadas, como su plataforma de IA y Microsoft Cloud.
Hood enfatizó el enfoque de Microsoft en brindar crecimiento financiero y rentabilidad a largo plazo a medida que ingresan a la era de la IA. La compañía planea continuar invirtiendo en infraestructura en la nube, especialmente gastos relacionados con IA, para escalar con la creciente demanda.
Cuando se le preguntó sobre la regulación de IA, Nadella dijo que Microsoft abordó de manera proactiva las consecuencias no deseadas de la IA en lugar de esperar a que se implementara la regulación con principios de IA, auditorías internas y un director de IA responsable de mantener los estándares y el cumplimiento.
Snapchat
Evan Spiegel, CEO de Snapchat, revisó su enfoque en la comunicación visual entre amigos y familiares, diferenciándolo de otras plataformas con el lanzamiento de My AI, un chatbot impulsado por IA.
Las nuevas funciones incluyen agregar My AI a las conversaciones grupales, proporcionar recomendaciones de lugares desde Snap Map y sugerir lentes AR relevantes.
Durante la sesión de preguntas y respuestas, Spiegel amplió la forma en que Snapchat usa la IA en la mensajería, la realidad aumentada (AR) y el contenido/anuncios.
En AR, las lentes impulsadas por IA han impulsado un compromiso significativo, y la intersección de AR e IA es crucial para los futuros Spectacles.
En el lado de la mensajería, la IA conversacional juega con las fortalezas de Snapchat, y los usuarios disfrutan de la comunicación con My AI.
Aunque no se comparten estadísticas específicas, Spiegel dijo que Snapchat está implementando My AI con cautela mientras está satisfecho con el compromiso hasta el momento.
Pensando en el futuro
El creciente énfasis en las soluciones impulsadas por IA por parte de gigantes de la industria como Amazon, Google, Microsoft y otros destaca el impacto potencialmente transformador de la IA en las empresas y la sociedad en general.
A medida que las empresas invierten cada vez más en infraestructura y talento de IA, están dando forma al futuro de la tecnología y creando nuevas oportunidades para la innovación.
Sin embargo, este rápido cambio hacia la integración de la IA también plantea dudas sobre los riesgos potenciales, las consideraciones éticas y la necesidad de una regulación para garantizar que los avances en la IA beneficien a todos.
Esta serie editorial limitada explorará cómo los medios de comercio, desde el comercio electrónico hasta las redes de medios minoristas, han entrado en una nueva era. Con historias que exploran por qué las agencias están creyendo en esta estrategia ahora y la trayectoria de crecimiento del canal dadas las cambiantes leyes de privacidad, esta serie detallará las oportunidades y los desafíos de los medios comerciales. Con información de Digiday
Cabeza hueca acaba de lanzar la campaña ‘Bimbo está queriendo’ para hacer frente a los problemas y malabarismos que hacen las familias para encontrar el equilibrio entre su vida profesional y personal porque según el Instituto Nacional de Estadística (INE), el 16,2% de las mujeres trabajadoras en España trabajan a tiempo parcial para compatibilizar su jornada laboral con la cuidado de niños o ancianos.
“Bimbo se quiere” es un reality check que pretende abrir la conversación sobre la reconciliación y la necesidad de seguir avanzando en los retos pendientes que tenemos como sociedad. Si con esta campaña logramos la reflexión, estamos satisfechos”, comenta Borja Herreras, director de marketing de la categoría de pan de Grupo Bimbo.
Para mostrar esta realidad, Bimbo ha confiado en la agencia creativa Oriol Villar para crear el cortometraje ‘SuperNatalia’, que muestra cómo es el día a día de una mujer con dos niñas. En este contexto, Olga Martínez, directora de Asuntos Dorporados & ESG de Grupo Bimbo, afirmó que “la conciliación es un desafío que se debe abordar desde muchos ámbitos: por supuesto, las empresas tienen un rol importante en promover el equilibrio, así como los gobiernos, la educación en las escuelas, la sensibilización ciudadana y la cooperación en el hogar”.
La compra inteligente y la multicategoría son los dos ejes diferenciales sobre los que se construye tu marca conformar llegar a sus clientes de una manera más inspiradora y cercana y poner en valor su oferta multigama y multiestilo.
La marca quiere resaltar estos aspectos a través de ‘Cada casa tiene su forma’, su última campaña ideada por La Buena, dirigida a personas reales que, cada vez más, buscan la mejor relación calidad-precio, trato personalizado, facilidades de pago, envío y montaje. Y, sobre todo, por disponer de la más amplia gama de productos de todos los estilos.
Con un tono desenfadado y cercano, y un rol de facilitador, Conforama conecta con un público más amplio, llegando a nuevos segmentos y rejuveneciendo la marca. Un planteamiento que va en la línea de la hoja de ruta hacia la digitalización que la compañía puso en marcha el año pasado, con el relanzamiento de sus redes sociales, la creación del Club Confo, el nacimiento de su mercado tanto en España como en Portugal, y el próximo lanzamiento de su nuevo e-commerce, previsto para el tercer trimestre del año.
La campaña será en televisión, televisión digital, radio, aire libre, redes sociales, PR y tiendas, con lo que se pretende llegar a una audiencia amplia, impactando al público objetivo definido en la nueva estrategia.
“La visión de negocio de nuestra empresa está enfocada a nuestros clientes. Nos esforzamos por entender a fondo tus necesidades para ofrecerte soluciones únicas y personalizadas que se adapten a tus estilos y presupuestos, teniendo en cuenta también los procesos de digitalización. Apostamos por seguir evolucionando para garantizar una experiencia de compra satisfactoria en todo momento y en todos los canales, compromiso que reforzamos con el lanzamiento de nuestra nueva estrategia de marca”, explica. David Almeida, director general de Conforama Iberia.
En el marco de su nueva estrategia de marca, Conforama apuesta por la creación de contenidos inspiradores con especial foco en el diseño de espacios reales, cómodos y acogedores capaces de enamorar a todos sus públicos. Muestra de ello son sus últimas guías de cocinas, dormitorios y despachos a medida, que culminan con el reciente lanzamiento de su colección para esta primavera-verano “Abre tu casa al buen tiempo” y la próxima publicación de su guía de salones.
como reconoces Marta Gil, directora de marketing y comercio electrónico de Conforama Iberia, con esta nueva estrategia de marca nos centramos aún más en el consumidor, mostrándole todas las posibilidades que podemos ofrecerle desde una nueva perspectiva, más cercana, emocional y realista. “Nuestro objetivo es desarrollar soluciones a medida que se adapten a lo que busca el cliente, en cada etapa de la vida. Y, al mismo tiempo, reforzar y potenciar nuestra oferta multigama y multiestilo con miles de nuevos productos, con la mejor relación calidad-precio y ofreciendo una compra flexible con nuestro servicio de financiación”.
Canal Historia ha sufrido una gran pérdida: le han robado su característico logo, su letra H. Todo ha sucedido durante la grabación en el Museo del Ferrocarril (Madrid) del nuevo spot promocional de ‘Robos históricos con Pierce Brosnan’ protagonizado por el humorista y presentador Raúl Cimas.
En pleno rodaje, unos ladrones han sustraído su logo, la icónica ‘H’ dorada. Tras el asalto, el emblema también ha desaparecido de la retransmisión lineal y de los perfiles de la marca en distintas redes sociales.
Para tranquilizar a los seguidores de este canal, las autoridades han confirmado que este robo a gran escala es parte de la campaña de marketing de ‘Robos históricos con Pierce Brosnan’que estará presente tanto al aire como en las redes sociales desde el 4 de mayo hasta la aparición del emblemático logo.
Presentado por el popular actor, ‘Robos históricos con Pierce Brosnan’ es un formato que utiliza recreaciones cinematográficas y efectos visuales de última generación para mostrar a los espectadores algunos de los robos más famosos de la historia.
Entre los casos que se exponen en la producción destacan el caso de Lufthansa en el aeropuerto JFK de Nueva York, el robo de obras de arte en el Museo Gardner de Boston o el caso de diamantes en Amberes (Bélgica). La serie cuenta con ocho capítulos y se estrena el próximo lunes 8 de mayo, a las 22:00 horas, por Canal Historia.
Es una acción que se ha desarrollado internamente. La campaña estará al aire en Canal Historia y en sus propios medios: web y redes sociales. Habrá un segundo vídeo decisivo en la jornada inaugural de ‘Robos históricos con Pierce Brosnan (8 de mayo) en el que el propio actor resolverá el caso.