A pesar de la interrupción del mercado provocada por las hazañas técnicas del nuevo modelo de lenguaje R1 de Deepseek, con sede en China,, los expertos en privacidad advierten que las empresas no deberían ser demasiado rápidas para bucear en la cabeza.

Sin embargo, la opinión del mercado ya está dividida. Algunos expertos en privacidad, vendedores y ejecutivos de tecnología están abogando por más pruebas y mejores barandillas antes de que las empresas adopten el último modelo de inteligencia artificial de Deepseek. Mientras tanto, el progreso de Deepseek ha sacudido la psique de Silicon Valley y sus inversores.

Tras el lanzamiento de la LLM de peso abierto de la semana pasada, la joven startup de IA con sede en China ha llamado rápidamente la atención por su bajo costo, velocidad rápida y alto rendimiento. El propio chatbot de Deepseek, un rival de chatgpt, también ha aumentado para convertirse en la mejor aplicación gratuita en la tienda de aplicaciones de Apple. (Deepseek también lanzó un nuevo modelo de imagen de IA el lunes llamado Janus-Pro).

Deepseek, fundado en 2023, fue iniciado por Liang Wenfeng, quien también fundó el fondo cuantitativo de cobertura con sede en China High-Flyer, que también es uno de los inversores de Deepseek.

El aumento de R1 se produce cuando las compañías tecnológicas chinas enfrentan más escrutinio de los Estados Unidos sobre los problemas de privacidad de datos y seguridad nacional. Mientras que Tiktok y Capcut enfrentan el Purgatorio Regulatorio, otros, incluidos los juegos y los juegos sociales, se han agregado recientemente a una lista de compañías con presuntos vínculos con el ejército de China.

Los expertos en tecnología y marketing están entusiasmados con la posibilidad de usar un LLM alternativo más barato de OpenAI, Anthrope, Google y Meta. Sin embargo, los profesionales de la privacidad advierten sobre los riesgos potenciales para la privacidad del usuario, la censura de contenido y el robo de IP corporativa. ¿Se unirán los especialistas en marketing en torno a un modelo de IA de China o dejarán bajo el pretexto de la privacidad y la incertidumbre regulatoria?

Consideraciones clave de privacidad

Según la propia política de privacidad de Deepseek, hay una serie de términos que los expertos dicen que podrían amenazar la privacidad del usuario de los Estados Unidos. Algunos ejemplos:

  • Los datos del usuario de Deepseek se almacenan en China
  • Deepseek puede compartir información recopilada mediante su uso del servicio con nuestros socios publicitarios o de análisis
  • Deepseek recopilará información personal a través de cookies, balizas web e etiquetas de píxeles e información de pago
  • Los datos recopilados también incluyen el historial de chat, el modelo de datos del dispositivo, la dirección IP, los patrones de pulsación de teclas, el sistema operativo, la información de pago y el lenguaje del sistema

La política de privacidad de Deepseek le permite compartir información con su grupo corporativo, señaló Carey Lening, un experto en privacidad de la consultora con sede en Irlanda Castlebridge. También notó que la política de Deepseek le permite compartir datos con terceros como parte de “transacciones corporativas”. Sin embargo, la política no incluye detalles sobre el tema. Además, Deepseek dice que sus socios también pueden compartir datos con la startup “para ayudar a igualarlo y sus acciones fuera del servicio”. Eso incluye:

  • Actividades en otros sitios web y aplicaciones o en tiendas
  • Productos o servicios comprados en línea o en persona
  • Identificadores móviles para anuncios, direcciones de correo electrónico hash, números de teléfono e identificadores de cookies

Deepseek recopila y comparte datos similares a sus rivales, pero sus políticas de datos relacionadas con el marketing difieren. Por ejemplo, Google usa muchos datos para la orientación de anuncios, pero su política dice que no usa conversaciones de Gemini. Perplexity dice que puede revelar datos de usuarios a terceros, incluidos socios comerciales y compañías que publican anuncios en sus plataformas o “de otra manera ayudar con la entrega de anuncios”. Sin embargo, la política de OpenAI dice que evita compartir contenido de los usuarios con fines de marketing y que no crea perfiles de usuarios para la orientación de anuncios.

Deepseek no respondió de inmediato a la solicitud de comentarios de Digiday.

Opiniones divididas

“Creemos que Tiktok es solo el extremo delgado de una gran cuña”, dijo Joe Jones, director de investigación e ideas de la Asociación Internacional de Profesionales de la Privacidad. “Estamos viendo mucho más halgismo en términos de datos que van a los países donde hay estándares más bajos o incluso donde los países son quizás más adversos”.

A pesar de las preocupaciones, algunos expertos en IA piensan que R1 puede ser un LLM de grado empresarial seguro y viable si se implementa a través de entornos controlados por el cliente como la instalación local en una computadora portátil o ejecutar servidores alojados en los Estados Unidos y Europa. El mayor riesgo, dicen algunos, es usar la API de Deepseek, la aplicación Chatbot o la versión web.

“Podemos compartir datos personales con socios de publicidad y análisis, recopilados mediante el uso de su servicio”.

Política de privacidad de Deepseek

Las preocupaciones no han impedido que algunas empresas, como la perplejidad, avancen con la adopción. El lunes, la plataforma de búsqueda de IA puso a R1 disponible para ayudar a los usuarios premium con una investigación web profunda y proporcionar las capacidades de razonamiento de R1. Al abordar las preocupaciones de los datos, el CEO y cofundador de Perplexity, Aravind Srinivas, escribió en X que todo el uso de Speeleek sobre la perplejidad es “a través de modelos alojados en los centros de datos estadounidenses y europeos”.

Algunos piensan que las preocupaciones de protección de datos y seguridad se han pasado por alto en gran medida en medio de toda la exageración. Phillip Hacker, profesor alemán de leyes y ética en la Universidad Europea Viadrin, señaló que los rivales estadounidenses también recopilan muchos datos pero también tienen políticas de privacidad más fuertes. En una publicación de LinkedIn, Hacker preguntó por qué Deepseek se siente “particularmente espeluznante”.

“Sabemos por el caso de Tiktok de EE. UU. Que cualquier empresa china tiene que entregar sus datos al gobierno chino si este último lo desea”, escribió Hacker. “Integre Deepseek en sus productos, y usted permite un nivel completamente nuevo de espionaje de la industria. Más allá de lo que Tiktok ya facilita “.

Barandas y pautas

Antes de adoptar modelos de IA, los expertos sugieren que las empresas realicen pruebas para asegurarse de que no usen accidentalmente los datos de manera que rompan las leyes de privacidad, como las de Europa y varias leyes estatales de los Estados Unidos.

Las empresas pueden mejorar la privacidad, y el valor comercial, al convertirla en sistemas de manera proactiva, dijo Ron de Jesús, director de privacidad de campo de Transcend, que ayuda a las empresas a evaluar el cumplimiento de los datos al usar varios modelos de IA y otras tecnologías. La reciente decisión del presidente Donald Trump de rescindir la orden ejecutiva del entonces presidente Joe Biden para la política de IA responsable ha creado una mayor incertidumbre regulatoria, una orientación reducida para el desarrollo y la adopción responsable de la IA, y dejó a los principales funcionarios de privacidad ansiosos por el cumplimiento.

“No podemos seguir prohibiendo a las empresas porque están basados ​​en China”, dijo De Jesus. “Necesitamos tener una mejor manera de analizar [companies] y mire sus programas de cumplimiento “.

Los expertos en privacidad están preocupados por el impacto de R1 con la IA europea y las leyes de datos, de que podría debilitar la protección de la PI, aumentar los sesgos de contenido y permitir la censura de contenido chino. Las nuevas eficiencias de IA también tienen expertos preocupados por el fraude generado por IA, los profundos, la información errónea y los riesgos de seguridad nacional.

Los ejecutivos de marketing también han expresado su preocupación. Un vendedor que prueba a su capacidad personal es Tim Hussain, SVP global de diseño de productos y soluciones en Oliver. Observó la aplicación de Deepseek que devolvemos una “hablemos de otra cosa” cuando se le preguntó sobre las acciones del estado chino, como las acciones en el Mar del Sur de China o la masacre de la Plaza Tiananmen.

“¿Cómo podemos confiar en una IA que se censura tan descaradamente?” Hussain escribió en LinkedIn. “Si bien el espacio de LLM continúa excitándonos con innovación y potencial, el ejemplo de Deepseek plantea serias preocupaciones, especialmente para las empresas que consideran integrar dichos modelos. ¿Cómo se asegura la confiabilidad y la integridad cuando los resultados se manipulan claramente?

Con información de Digiday

Leer la nota Completa > Un profundo (er) se sumerge en las políticas de privacidad de Deepseek

LEAVE A REPLY

Please enter your comment!
Please enter your name here