Muchos debates sobre IA este año se han centrado en lo que piensan las empresas, los reguladores y los investigadores. Pero ¿qué piensan padres e hijos?

Para comprender cómo las familias se enfrentan a la IA generativa, los investigadores de Kantar y el Family Online Safety Institute intentaron descubrir cómo varían los “hábitos, esperanzas y miedos” en Estados Unidos, pero también en Alemania y Japón. Los hallazgos, publicados la semana pasada, mostraron que la mayoría de los padres se sentían positivos acerca de que sus hijos adolescentes usaran IA generativa, incluso si todavía estaban preocupados por los riesgos.

En general, Alemania tuvo el mayor porcentaje de sentimiento positivo general (70%), seguida de Estados Unidos (66%) y Japón (59%). Japón tuvo el porcentaje más alto con una perspectiva negativa, con un 38% expresando una perspectiva negativa frente al 29% en Estados Unidos y el 27% en Alemania. Para abordar estas preocupaciones, los padres de los tres países mencionaron la transparencia de los datos como una prioridad máxima, algo que también mencionaron los adolescentes de Estados Unidos y Alemania.

Cuando Kantar preguntó cómo habían probado las herramientas genAI, la mayoría de padres y adolescentes mencionaron que las usaban para tareas analíticas. Sin embargo, un mayor porcentaje de padres en los tres países lo han utilizado para tareas creativas, mientras que los adolescentes eran más propensos a utilizarlo para tareas de “aumento de la eficiencia”, como revisiones gramaticales. Por otro lado, tanto los padres como los adolescentes mencionaron estar preocupados por la posibilidad de pérdida de empleo y desinformación. Los adolescentes también expresaron su preocupación por el uso de la IA para crear nuevas formas de acoso y ciberacoso.

Uno de los hallazgos más sorprendentes del informe de Kantar: los adolescentes dijeron que sus padres sabían más sobre la IA que ellos. Esto es especialmente notable después de casi dos décadas de la era de las redes sociales, cuando los niños adoptaron nuevas plataformas más rápido que sus padres. Sin embargo, eso podría deberse a que los padres utilizan la IA más que las redes sociales en entornos laborales, señaló Kara Sundby, directora senior de Futures Practice de Kantar. Otra posibilidad es que los padres hayan pasado por suficientes evoluciones digitales como para volverse más expertos en el “aprendizaje responsable”.

“Los padres también están usando esto para sí mismos de una manera que no utilizaron TikTok y Snap”, dijo Sundby. “Es más bien un caballo de batalla”.

A pesar del optimismo Kantar Como se descubrió, una encuesta separada en los EE. UU. y el Reino Unido realizada por Braze encontró que alrededor de la mitad de los consumidores están preocupados por que las marcas no utilicen sus datos de manera responsable, y solo el 16% está “completamente seguro” o “muy seguro”. Solo el 29% dijo que se sentía cómodo con las marcas que usaban IA para personalizar sus experiencias, mientras que otro 38% dijo que no se sentía cómodo y otro 33% no estaba seguro.

Es importante comprender cómo las comunidades utilizan los sistemas de IA y cómo se ven afectadas por ellos, dijo Ashley Casovan, directora general del Centro de Gobernanza de IA de la Asociación Internacional de Profesionales de la Privacidad. En su función anterior como directora general del Responsible AI Institute, Casovan también ayudó a realizar una encuesta entre canadienses para ver qué pensaban sobre la IA, y descubrió que el 71% de los encuestados pensaba que la IA debería desarrollarse en consulta con “la gente común”, mientras que el 82% de los encuestados pensaba que la IA debería desarrollarse en consulta con “la gente común”. El % pensó que era importante incorporar la ética para minimizar los daños. (Casovan también pasó años trabajando para el gobierno canadiense, donde ayudó a desarrollar su primera política nacional en torno al uso gubernamental de la IA).

“Existe una gran necesidad de comprender el contexto de cómo se utilizan estos sistemas de IA”, dijo Casovan. “Es necesario que haya alfabetización a nivel del usuario final, que creo que generalmente se puede decir que es el público, aunque podría detenerse antes de eso”.

Noticias de IA:

  • Fue un fin de semana salvaje para OpenAI. El viernes, el cofundador Sam Altman fue destituido de su cargo de director ejecutivo y destituido de la junta directiva, mientras que la directora de tecnología Mira Murati fue nombrada directora ejecutiva interina. En una publicación de blog sobre los cambios de liderazgo, OpenAI también dijo que el cofundador y presidente Greg Brockman dejaría su puesto como presidente de la junta directiva pero permanecería en la empresa. Sin embargo, horas más tarde, Brockman anunció que renunciaría. Desde entonces, han surgido varios rumores e informes relacionados con lo que provocó los cambios repentinos y lo que podría suceder a continuación. En la publicación del blog de OpenAI, la compañía dijo que la salida de Altman se produjo después de “un proceso de revisión deliberante por parte de la junta, que concluyó que no fue consistentemente sincero en sus comunicaciones con la junta, lo que obstaculizó su capacidad para ejercer sus responsabilidades”.
  • Las principales empresas de tecnología, incluidas Google, Meta, IBM y Shutterstock, están agregando nuevas políticas y herramientas relacionadas con la inteligencia artificial para generar confianza, evitar riesgos y mejorar el cumplimiento legal.
  • Un nuevo proyecto de ley bipartidista en el Senado de Estados Unidos tiene como objetivo aportar más responsabilidad y transparencia a la IA y al mismo tiempo fomentar la innovación. El proyecto de ley, denominado Ley de Investigación, Innovación y Responsabilidad de la Inteligencia Artificial (IA), fue presentado la semana pasada con tres copatrocinadores republicanos junto con tres demócratas. Mientras tanto, la FTC anunció un nuevo “desafío de clonación de voz” para crear conciencia sobre los riesgos potenciales que plantea la IA.
  • Los principales editores, incluidos News Corp e IAC, expresaron que están cada vez más frustrados porque las empresas de inteligencia artificial generativa recopilan contenido sin pagar por él.
  • Un ejecutivo clave de Stability AI renunció por preocupaciones de derechos de autor relacionadas con cómo la popular startup de IA entrena sus modelos de IA. En un artículo de opinión sobre su partida, Ed Newton-Rex, quien dirigió los esfuerzos de audio de Stability, dijo que sentía que la compañía estaba “explotando” el contenido protegido por derechos de autor al usarlo sin permiso. (Stability AI ha sido objeto de múltiples demandas por derechos de autor, incluida una de artistas y otra de Getty Images).
  • La IA generativa ha seguido apareciendo en los informes de resultados trimestrales de varias empresas. La semana pasada, Getty Images, Visa, Chegg, Alibaba y otros mencionaron genAI en sus presentaciones de resultados. La IA generativa contribuyó parcialmente al crecimiento del 35% en las ganancias brutas del negocio de publicidad en línea de Tencent, dijo la compañía, citando el papel de “la mayor demanda de anuncios en video y la aplicación innovadora de herramientas de IA generativa en la creación de imágenes publicitarias atractivas”.

Indicaciones y productos:

  • Microsoft anunció una serie de actualizaciones de IA la semana pasada durante su evento Ignite. Además de cambiar el nombre de Bing Chat y Bing Chat Enterprise para convertirse en Copilot, que estará disponible el 1 de diciembre, Microsoft también anunció otras actualizaciones que incluyen nuevo soporte para GPT de OpenAI, protecciones de datos comerciales mejoradas, más complementos y un nuevo Copilot Studio para ayudar a las personas a construir. sus propios copilotos independientes de bajo código. Microsoft también publicó un nuevo informe que detalla cómo las personas han estado usando Copilots para la creatividad y la productividad. Finalmente, anunció a Baidu como el último socio para su API Chat Ads.
  • Google está experimentando con nuevas herramientas de inteligencia artificial generativa relacionadas con la música, incluida una forma para que los usuarios creen clips musicales originales para YouTube Shorts creados mediante indicaciones basadas en texto. En un avance publicado la semana pasada, la compañía mostró cómo está trabajando con artistas importantes, incluidos Charlie Puth, Demi Lovato, T-Pain, John Legend y Sia, que proporcionan su música para el proyecto.
  • IBM anunció una nueva herramienta de gobernanza para su cartera Watson llamada watsonx.governance que ayudará a los clientes de IA a detectar riesgos de IA, predecir posibles preocupaciones futuras y monitorear aspectos como sesgo, precisión, equidad y privacidad.
  • Ally Financial anunció los resultados iniciales del experimento de IA generativa utilizando el modelo de lenguaje grande de la empresa. Según Ally, el uso de las herramientas redujo el tiempo de producción de la campaña entre 2 y 3 semanas, mientras que otros obtuvieron un ahorro de tiempo del 34 % en diversas tareas.
  • Cada vez más agencias están firmando nuevos acuerdos como una forma de aprovechar el auge de la IA generativa. La semana pasada, Omnicom anunció una nueva colaboración con Getty Images para integrar el nuevo generador de imágenes de IA de Getty en la plataforma de orquestación de datos Omni de Omnicom. Mientras tanto, Stagwell anunció una nueva asociación con Google para infundir la IA del gigante tecnológico en Stagwell Marketing Cloud.

Otras historias de todo Digiday:

  • “Por qué la NFL lanzó un juego impulsado por IA con Amazon”

https://digiday.com/?p=526273


Con información de Digiday

Leer la nota Completa > Informe sobre IA: en un giro tecnológico, los adolescentes dicen que sus padres saben más sobre IA que ellos, al menos por ahora

LEAVE A REPLY

Please enter your comment!
Please enter your name here