Un nuevo informe de Microsoft destacó los desafíos, oportunidades y urgencias clave que surgen al proteger a las personas de los peligros del contenido generado por IA.

El martes, la compañía publicó una nueva investigación sobre los esfuerzos para prevenir la IA generativa dañina, como la información errónea relacionada con las elecciones y el contenido deepfake. El documento técnico de 50 páginas también arroja más luz sobre la exposición de las personas a diversos tipos de uso indebido de la IA, su capacidad para identificar contenido sintético y las crecientes preocupaciones sobre temas como estafas financieras y contenido explícito. El documento también ofrece sugerencias para que los formuladores de políticas las consideren mientras los legisladores buscan elaborar nuevas regulaciones en torno a texto, imágenes, video y audio generados por IA.

El informe se publicó en medio de crecientes preocupaciones sobre el contenido generado por IA en esta temporada electoral. También llega el mismo día en que el Senado de EE. UU. aprobó la Ley de seguridad infantil en línea (KOSA), que, de aprobarse, podría crear nuevas regulaciones para redes sociales, plataformas de juegos y plataformas de transmisión, incluidas nuevas reglas de contenido relacionadas con menores.

En una publicación de blog que presenta el informe, el vicepresidente y presidente de Microsoft, Brad Smith, espera que los legisladores amplíen las capacidades colectivas de la industria para promover la autenticidad del contenido, detectar y responder a los deepfakes abusivos y brindar al público herramientas para aprender sobre los daños de la IA sintética.

“Necesitamos nuevas leyes para ayudar a evitar que los malos actores utilicen deepfakes para defraudar a las personas mayores o abusar de los niños”, escribió Smith. “Si bien nosotros y otros nos hemos centrado, con razón, en los deepfakes utilizados en la interferencia electoral, el amplio papel que desempeñan en estos otros tipos de delitos y abusos necesita la misma atención”.

Tan solo la semana pasada, videos generados por IA del presidente Joe Biden y la vicepresidenta Kamala Harris han puesto de relieve las preocupaciones sobre el papel de la desinformación de la IA durante las elecciones de 2024. Uno de los ejemplos más recientes es el del CEO de X, Elon Musk, que comparte un deepfake de Harris. Al hacerlo, algunos dicen que Musk podría haber violado las propias políticas de su plataforma.

La creación de reglas corporativas y gubernamentales para el contenido generado por IA también requiere establecer umbrales sobre lo que debería permitirse, según Derek Leben, profesor asociado de ética empresarial en la Universidad Carnegie Mellon. Dijo que eso también lleva a preguntas como cómo determinar los umbrales basados ​​en el contenido, la intención, el creador y a quién representa un video. Lo que se crea como parodia también podría convertirse en información errónea basada en cómo se comparte el contenido y quién lo comparte.

Microsoft tiene razón al impulsar la regulación y una mayor conciencia pública y, al mismo tiempo, crear mejores herramientas para la detección de IA, dijo Leben, quien ha investigado y escrito sobre IA y ética. También señaló que poner el foco en el gobierno y los usuarios podría hacer que se trate menos de responsabilidad corporativa. Si el objetivo es realmente evitar que las personas sean engañadas por información errónea de la IA en tiempo real, dijo que las etiquetas deberían ser prominentes y requerir menos esfuerzo del usuario para determinar la autenticidad.

“Gran parte de la parodia tiene que ver con las intenciones de la persona que la creó, pero luego puede difundirse como información errónea donde no era intencionada”, dijo Leben. “Es muy difícil para una empresa como Microsoft decir que implementará medidas de prevención contra videos abusivos, pero no contra parodias”.

Los expertos dicen que poner marcas de agua en el contenido de IA no es suficiente para prevenir por completo la información errónea generada por la IA. El deepfake de Harris es un ejemplo de un “deepfake parcial” que tiene tanto audio sintético como segundos de audio real, según Rahul Sood, director de producto de Pindrop, una empresa de seguridad de inteligencia artificial. Dijo que se están volviendo mucho más comunes y mucho más difíciles de detectar para los usuarios y la prensa.

Si bien las marcas de agua pueden ayudar, muchos expertos dicen que no es suficiente para prevenir los peligros de la desinformación generada por la IA. Aunque Pindrop rastrea más de 350 sistemas de generación de inteligencia artificial de voz, Sood dijo que solo la mayoría de ellos son herramientas de código abierto que no utilizan marcas de agua. Sólo hay una docena de herramientas disponibles comercialmente.

“Existe la tecnología para realizar una detección en tiempo real cargada en estas plataformas”, dijo Sood. “La cuestión es que no parece haber ningún mandato real que les obligue a hacerlo”.

Otras empresas también están buscando más formas de ayudar a las personas a detectar deepfakes. Uno de ellos es Trend Micro, que acaba de lanzar una nueva herramienta para ayudar a detectar vídeos sintéticos en conferencias telefónicas. Según un nuevo estudio de Trend Micro, el 36% de las personas encuestadas ya están sufriendo estafas, mientras que alrededor del 60% dijo que son capaces de identificarlas.

“El mayor desafío que veremos con la IA en los próximos años es la desinformación”, afirmó Jon Clay, vicepresidente de inteligencia de amenazas de Trend Micro. “Ya sea el uso de deepfakes, ya sea video o audio, creo que será una de las partes más difíciles para las personas determinar qué es real y qué no es real”.

Con información de Digiday

Leer la nota Completa > Un informe de Microsoft destaca los esfuerzos de la IA en torno a la desinformación electoral y los deepfakes dañinos

LEAVE A REPLY

Please enter your comment!
Please enter your name here