Publicado originalmente el 10 de abril de 2019, este artículo se actualizó para incluir un video explicativo.
A medida que la industria publicitaria reevalúa su enfoque de la privacidad personal, los anunciantes buscan formas de recopilar datos sobre las personas sin comprometer su privacidad. Una de esas alternativas se ha denominado privacidad diferencial, una técnica estadística que permite a las empresas compartir datos agregados sobre los hábitos de los usuarios al tiempo que protege la privacidad individual.
A continuación se explica cómo funciona la privacidad diferencial.
¿WTF es privacidad diferencial?
Es un proceso utilizado para agregar datos en el que Microsoft fue pionero y que ahora utilizan Apple, Google y otras grandes empresas tecnológicas. En pocas palabras, un algoritmo de privacidad diferencial inyecta datos aleatorios en un conjunto de datos para proteger la privacidad individual.
Antes de enviar los datos a un servidor para anonimizarlos, el algoritmo de privacidad diferencial agrega datos aleatorios a un conjunto de datos original. La inclusión de datos aleatorios significa que el anunciante obtiene un conjunto de datos que ha sido enmascarado ligeramente y, por lo tanto, no es del todo exacto.
¿Cómo es eso?
El anunciante obtiene efectivamente aproximaciones a las respuestas que necesita sin comprometer la privacidad de nadie. Un anunciante que vea datos de privacidad diferenciales podría saber que 150 de 200 personas vieron un anuncio de Facebook e hicieron clic en su sitio, pero no saber qué 150 personas, por ejemplo. Ofrece a los usuarios de esos datos una negación plausible porque es prácticamente imposible identificar individuos específicos con total certeza.
Eso no suena muy exacto.
Aquí existe un claro equilibrio entre privacidad y precisión, ya que los anunciantes no obtendrán una imagen completa de cómo responde la gente a una campaña. Sin embargo, es un sacrificio que algunos anunciantes parecen dispuestos a aceptar. Sin los datos aleatorios inyectados en el conjunto de datos principal, es fácil determinar quién es la persona que interactuó con el anuncio, lo que significaría tener que eliminar la base de datos si no se ha obtenido el consentimiento adecuado del Reglamento General de Protección de Datos.
¿Quién conduce esto?
Existe un colectivo intersectorial de anunciantes, editores y plataformas tecnológicas de Truth in Measurement que están considerando cómo se podría utilizar la técnica estadística para respaldar la medición multiplataforma. Trace Rutland, director de innovación de medios de Tyson Foods, que forma parte del colectivo, dijo que este pragmatismo se reduce a que hay una prueba ética más evidente en juego que gira en torno a la pregunta: “¿Esperarían nuestros clientes y se sentirían cómodos con que usáramos sus datos de esta manera? La respuesta empujó al colectivo intersectorial a considerar si la privacidad diferencial podría usarse como una forma de validar los datos que se comparten en una sala limpia de datos propuesta.
¿Cómo puede eso ayudar con la medición multiplataforma?
Con todo lo que se habla sobre si las salas limpias de datos pueden respaldar la medición entre partidos, un punto conflictivo ha sido quién realmente se beneficia de ello. Los vendedores de medios desconfían de compartir sus datos en el mismo lugar que sus rivales, mientras que los anunciantes no se sienten dueños de esos entornos, lo que posteriormente los hace sospechar de lo que se agrega.
La privacidad diferencial podría aliviar algunas de esas sospechas, ya que todos los partidarios de la sala limpia sentirían que tienen cierto control sobre un proceso de anonimización de datos que normalmente está controlado por el vendedor de medios. Un anunciante obtendría un conjunto de datos que es un reflejo preciso de qué tan bien se desempeñó una campaña, mientras que el vendedor de medios no tendría que desprenderse de valiosos datos de orientación.
La cuestión surgió en un evento organizado por el grupo Truth in Measurement el mes pasado. “El consenso fue que los anunciantes recibirían un archivo de registro diferencial basado en la privacidad de los datos de la campaña como resultado de las salas limpias de datos que se están adoptando”, dijo Victor Wong, director ejecutivo de Thunder Experience Cloud, que encabezó la iniciativa Truth in Measurement.
¿Puede cualquier anunciante hacer esto?
En teoría, cualquier anunciante podría desarrollar su propio algoritmo para la privacidad diferencial, pero no es aconsejable dado lo complejo que sería desarrollarlo y luego administrarlo. De hecho, anunciantes como Tyson Foods preferirían trabajar con otros para cofinanciar una versión de la técnica que puedan aplicar a conjuntos de datos más grandes.
“Si algo como la privacidad diferencial va a despegar, entonces tiene que ser un esfuerzo combinado por parte de los compradores. Los anunciantes no pueden hacer esto solos”, dijo Rutland, quien quiere que la industria se una en torno a una versión unificada del algoritmo en lugar de soportar varias versiones del mismo. “Siempre que los anunciantes han intentado hacerlo solos en lo que respecta a la medición multiplataforma, no ha sido algo que hayan podido escalar hasta un punto en el que haya tenido un impacto en la forma en que los jardines amurallados llegan al mercado”.
¿Alguna otra desventaja?
La privacidad diferencial no es buena en conjuntos de datos pequeños. Cuanto más pequeño es el conjunto de datos, más propenso es a sufrir imprecisiones una vez que se le agregan datos aleatorios. Además, es más difícil hacer que la privacidad diferencial funcione a escala en comparación con informar los datos reales y anonimizados de los usuarios.
Con información de Digiday
Leer la nota Completa > ¿WTF es privacidad diferencial? – Digidía