Mientras la Corte Suprema considera si Big Tech debe ser responsable por contenido dañino, dos casos separados escuchados esta semana también arrojan luz adicional sobre la seguridad de la marca, el ritmo de la innovación y cómo cada caso podría afectar el futuro de la publicidad digital.
Esta semana, el tribunal supremo de la nación escuchó argumentos orales separados sobre Google y Twitter, y si las redes sociales deben ser responsabilizadas por el contenido terrorista que, según las familias de las víctimas, provocó la muerte de sus familiares.
Los casos se relacionan con si las empresas de tecnología deben ser consideradas responsables por contenido peligroso, y ambos dependen de aspectos de la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley de 1996 que brinda protección para las plataformas en línea y el contenido de terceros en ellas. Y aunque el enfoque de cada uno es bastante estrecho, los expertos dicen que hay mucho más en juego y podría tener un impacto potencialmente mucho más amplio en el futuro de la libertad de expresión, la moderación de contenido y la forma en que las plataformas venden publicidad.
“Podría transformar tanto la forma en que se alojan y recomiendan los anuncios en los algoritmos como la forma en que se recomienda el contenido no publicitario”, dijo Jeffrey Rosen, director ejecutivo del Centro Nacional de la Constitución, una organización sin fines de lucro no partidista centrada en la educación constitucional.
Numerosas empresas de tecnología, incluidas Twitter, Reddit, Craig’s List, Yelp, Meta, Microsoft y The Match Group, junto con varios grupos comerciales y organizaciones de defensa, han presentado informes amicus curiae ante la Corte Suprema. Cada uno cubre una variedad de temas que incluyen cómo las plataformas sociales moderan su contenido, el papel de la publicidad y las posibles implicaciones para los usuarios y las empresas. Otros, como los grupos comerciales, incluido Interactive Advertising Bureau, sugieren que debilitar las protecciones de la Sección 230 también podría afectar a las pequeñas empresas y hacerlas susceptibles a una ola de nuevas demandas.
“El caso de Google es simplemente la punta del iceberg en lo que respecta a la jurisdicción legal y la legislación que rodea la Sección 230”, dijo Marc Beckman, director ejecutivo de la agencia de publicidad DMA United. “Las compuertas se están abriendo”.
Los resúmenes de algunas empresas de tecnología abordan sus esfuerzos continuos para mitigar el contenido dañino. Por ejemplo, Meta’s destaca los esfuerzos actuales para eliminar cuentas y publicaciones relacionadas con terroristas de Facebook e Instagram, políticas y acciones que, según la compañía, son importantes para retener tanto a los usuarios como a los anunciantes.
El contraargumento sostiene que las plataformas como YouTube de Google no deberían estar protegidas como los editores tradicionales. Un informe presentado por Common Sense Media y la denunciante de Facebook, Frances Haugen, afirma que las funciones de Google son “particularmente insidiosas” y podrían permitir que grupos peligrosos interactúen más fácilmente con personas a través de cuentas y contenido.
“Google proporciona a ISIS a sabiendas el uso de sus algoritmos y otra arquitectura informática única, servidores informáticos, almacenamiento y equipos de comunicación, para facilitar la capacidad de ISIS de llegar y atraer audiencias a las que de otro modo no podría llegar con tanta eficacia”, según el informe presentado por Common Sense Media y Haugen. “Los anunciantes pagan a Google para colocar anuncios dirigidos en los videos, y Google ha aprobado los videos de ISIS para la ‘monetización’ a través de la colocación de anuncios por parte de la empresa de tecnología en esos videos específicos”.
Google no respondió a las solicitudes de comentarios de Digiday sobre los reclamos.
También existe el peligro de combinar los dos casos, dijo Erik Stallman, ex abogado de Google que ahora es profesor de derecho en la Universidad de California-Berkley. Una de las cosas que más le preocupa: una posible “falla confusa” en el caso de Google que socava la Sección 230 y no deja claro lo que una plataforma puede o no puede hacer.
“Lo que se subestima es cuánto están conectados los algoritmos de recomendación para mantener ciertos tipos de contenido dañino fuera de las plataformas o es menos probable que se difunda en esas plataformas”, dijo Stallman.
La decisión de la Corte Suprema también podría afectar las reglas relacionadas con la inteligencia artificial, y en particular la IA generativa. El martes, el juez Neil Gorsuch señaló que los motores de búsqueda podrían estar protegidos en lo que respecta al contenido. Sin embargo, más allá de eso todavía no está claro.
“Quiero decir, la inteligencia artificial genera poesía, genera polémica hoy”, dijo Gorsuch durante los argumentos orales en el caso de Google. “Ese sería contenido que va más allá de seleccionar, elegir, analizar o digerir contenido. Y eso no está protegido”.
El impacto total no se conocerá hasta que la Corte Suprema emita un fallo, que se espera antes de julio. Pero algunos observadores dicen que el impacto en la industria publicitaria podría ser más moderado. Brian Wieser, un analista de publicidad desde hace mucho tiempo, cree que la decisión podría cambiar solo marginalmente dónde fluyen los dólares. Sin embargo, Wieser dijo que podría hacer más atractivas las plataformas que mejoran las medidas de seguridad de la marca.
“Si eliminas una cuarta parte del inventario de YouTube, no creo que cambien las matemáticas detrás del inventario”, dijo Wieser, que ahora dirige su propia consultoría, Madison & Wall.
Si bien aún no está claro qué decidirá la Corte Suprema, algunos expertos legales señalaron que los jueces de ambos lados del espectro político parecen comprender el peso de su decisión.
No importa lo que decida la Corte Suprema, otros también ven la necesidad de una mayor transparencia. Y en lugar de tratar de regularlo todo, algunos dicen que sería mejor que el tribunal se concentrara en temas más específicos. Sahar Massachi, cofundadora y directora ejecutiva del grupo de expertos tecnológicos The Integrity Institute, comparó los intentos de regular las redes sociales con la prevención de accidentes automovilísticos. Massachi, quien pasó varios años como ingeniero en los equipos de integridad cívica de Facebook, dijo que tiene más sentido entender primero dónde existen los problemas.
“Crees que estás regulando los autos, pero lo que en realidad estás haciendo es regulando caminos y puentes y una red de transporte”, dijo Massachi. “¿Puedes hablar primero sobre los ejes de transmisión del diferencial? Comprenda cuáles son y trabaje hacia arriba desde allí. Si el problema en los autos es que los Ford Pintos explotan, hablen primero de diseñar la seguridad antes de hincarle el diente a toda esta red de transporte, porque hay que trabajar para lograrlo”.
https://digiday.com/?p=490529
Con información de Digiday
Leer la nota Completa > Cómo los casos de la Corte Suprema relacionados con Google y Twitter podrían dar forma al futuro del contenido y la publicidad