Gary Illyes de Google y otros respondieron muchas preguntas relacionadas con la IA en Google Search Central Live Tokyo 2023, compartiendo nuevos conocimientos sobre los enfoques y recomendaciones de Google sobre contenido generado por IA.

El experto japonés en marketing de búsqueda Kenichi Suzuki (perfil de Twitter) presentado en Search Central Tokyo 2023 y posteriormente publicó una publicación de blog en japonés que resumía las principales ideas del evento.

Parte de lo que se compartió actualmente es bien conocido y está documentado, como que a Google no le importa si el contenido es generado por IA o no.

Tanto para el contenido generado por IA como para el contenido traducido, lo que más le importa a Google es la calidad del contenido.

Cómo trata Google el contenido generado por IA

Etiquetado de contenido generado por IA

Lo que puede ser menos conocido es si Google distingue o no entre el contenido generado por IA o no.

El Googler, presumiblemente Gary Illyes, respondió que Google no etiqueta el contenido generado por IA.

¿Deberían los editores etiquetar el contenido generado por IA?

Actualmente, la UE está pidiendo a las empresas de redes sociales que etiqueten voluntariamente el contenido generado por IA para combatir las noticias falsas.

Y Google actualmente recomienda (pero no exige) que los editores etiqueten las imágenes generadas por IA utilizando metadatos de datos de imágenes IPTC, y agrega que las empresas de IA de imágenes en un futuro cercano comenzarán a agregar los metadatos automáticamente.

Pero, ¿qué pasa con el contenido del texto?

¿Están obligados los editores a etiquetar su contenido de texto como generado por IA?

Sorprendentemente, la respuesta es no, no es obligatorio.

Kenichi Suzuki escribió que, en lo que respecta a Google, no es necesario etiquetar explícitamente el contenido de IA.

El Googler dijo que están dejando que los editores tomen esa decisión sobre si es una mejor experiencia para el usuario o no.

La traducción al inglés de lo que escribió Kenichi en japonés es:

“Desde el punto de vista de Google, no es necesario etiquetar explícitamente el contenido generado por IA como contenido generado por IA, ya que evaluamos la naturaleza del contenido.

Si juzga que es necesario desde el punto de vista del usuario, puede especificarlo”.

También escribió que Google advirtió contra la publicación de contenido de IA tal como está sin que un editor humano lo revise antes de publicarlo.

También recomendaron adoptar el mismo enfoque con el contenido traducido, que un ser humano también debería revisar antes de publicar.

El contenido natural está clasificado en la parte superior

Uno de los comentarios más interesantes de Google fue un recordatorio de que sus algoritmos y señales se basan en contenido humano y, por eso, clasificarán el contenido natural en la parte superior.

La traducción al inglés del japonés original es:

“Los algoritmos y señales basados ​​en ML (aprendizaje automático) están aprendiendo del contenido escrito por humanos para humanos.

Por lo tanto, comprenda el contenido natural y muéstrelo en la parte superior”.

¿Cómo maneja Google el contenido de IA y EEAT?

EEAT es un acrónimo que significa experiencia, pericia, autoridad y confiabilidad.

Es algo que se mencionó por primera vez en las pautas de los evaluadores de calidad de búsqueda de Google, recomendando que los evaluadores busquen evidencia de que el autor está escribiendo desde una posición de experiencia en el tema.

Una inteligencia artificial, en este momento, no puede reclamar experiencia en ningún tema o de un producto.

Por lo tanto, parece imposible que una IA alcance el umbral de calidad para ciertos tipos de contenido que requieren experiencia.

Googler respondió que están teniendo discusiones internas al respecto y aún no han llegado a una política.

Dijeron que anunciarán una política una vez que se hayan decidido por ella.

Las políticas sobre IA están evolucionando

Estamos viviendo un momento de transición debido a la disponibilidad de la IA y su falta de confiabilidad.

Las principales empresas de medios que se apresuraron a probar el contenido generado por IA se han ralentizado silenciosamente para volver a evaluar.

ChatGPT y la IA generativa similar, como Bard, no se capacitaron expresamente para crear contenido.

Entonces, quizás no sea sorprendente que Google actualmente recomiende que los editores continúen vigilando la calidad de su contenido.

Lea el artículo original de Kenichi Suzuki:

Lo que aprendí en Google #SearchCentralLive Tokio 2023

Imagen destacada de Shutterstock/takayuki


Con información de Search Engine Journal.

Leer la nota Completa > Google está formando una política sobre contenido de IA y EEAT

LEAVE A REPLY

Please enter your comment!
Please enter your name here