Amazon está agregando más formas de hacer que las aplicaciones de IA generativa sean más fáciles de crear, más útiles de adoptar y potencialmente más precisas.
Amazon Web Services utilizó ayer su evento AWS Summit New York para anunciar nuevas formas de crear aplicaciones de inteligencia artificial de nivel empresarial y al mismo tiempo mejorar la precisión de grandes modelos de lenguaje, un obstáculo clave para atraer empresas que desconfían de los problemas de “alucinaciones” con varios LLM.
Una adición son las verificaciones de fundamento contextual, una técnica para evaluar las respuestas generadas por IA mediante referencias cruzadas del material fuente en tiempo real. Debido a que diferentes empresas pueden tener diferentes tolerancias de precisión según su industria y tipos de datos, las verificaciones de conexión a tierra también medirán la relevancia para bloquear las respuestas según el nivel de tolerancia de una empresa.
Otra característica nueva de AWS es una API Guardrails, que evaluará las entradas de mensajes de los usuarios y las respuestas del modelo de IA para varios LLM dentro de Amazon Bedrock, o evaluará el LLM de una empresa. La API también ayudará a identificar contenido según las políticas de una empresa para redactar información confidencial, filtrar contenido dañino y bloquear temas no deseados o contenido inapropiado.
“Un [API] La solicitud ahora puede ser mucho más específica y adaptada para garantizar que sea el resultado adecuado, adecuado para esa solicitud o esa entrada”, dijo a Digiday Diya Wynn, líder responsable de IA en AWS. “Lo importante aquí es permitir a los clientes tener una capa o nivel adicional de seguridad. Y esa API proporciona eso a cualquier LLM, no solo a aquellos que estaban en Amazon Bedrock”.
En las pruebas de Amazon, las comprobaciones de conexión a tierra contextual encontraron y filtraron hasta el 75 % de las alucinaciones en las respuestas del modelo de IA y bloquearon hasta un 85 % más de contenido cuando se usaron con la API Guardrails. En el escenario de AWS Summit NY, Matt Wood, vicepresidente de productos de IA de AWS, dijo que los modelos de IA entrenados en la Internet pública utilizan un conjunto de datos “muy, muy amplio” en comparación con los tipos de conjuntos de datos y formatos de documentos que utilizan las empresas.
“Esa información suele ser bastante superficial en relación con la profundidad de la información con la que la mayoría de las organizaciones tratan día a día”, dijo Wood. “Cuando profundizas en estos modelos mundiales, pueden convertirse un poco en queso suizo. Hay áreas de densidad de información, hay áreas de escasez de información. Y cuando tienes esa densidad de información y los modelos tienen contexto, los modelos funcionan muy, muy bien”.
Las actualizaciones fueron solo dos de las muchas anunciadas en AWS Summit NY, donde el gigante del comercio electrónico también lanzó otras capacidades para sus plataformas de IA generativa. Otros incluyeron el debut de un nuevo AWS App Studio, cuyo objetivo es permitir a los clientes empresariales crear aplicaciones de IA a partir de mensajes de texto; y la expansión de Amazon Q Apps, que permitirá a los clientes crear sus propias aplicaciones de inteligencia artificial.
Los esfuerzos de Amazon ofrecen un ejemplo de las diversas formas en que los proveedores de modelos de IA están compitiendo para encontrar formas de hacer que las herramientas de IA generativa sean más fáciles, útiles y precisas. Esta semana, la startup de IA Writer lanzó nuevas actualizaciones para su propia plataforma de IA. Utilizando un enfoque basado en gráficos para la recuperación de generación aumentada (RAG), Writer introdujo una nueva forma de incorporar RAG al proceso para analizar hasta 10 millones de palabras al desarrollar aplicaciones de chat. La firma de cuatro años también introdujo actualizaciones para ayudar a los modelos de IA a explicar su proceso para generar respuestas (un desafío clave de la industria para mejorar la IA explicable) y nuevos “modos” para los clientes al verificar documentos dependiendo de diferentes tareas.
Los usuarios no confiarán naturalmente en las respuestas que surgen de la caja negra, explicó Deanna Dong, directora de marketing de productos de Writer. Añadió que, si bien la IA generativa puede ser “mágica”, todavía no es una “bala mágica que lo resuelva todo”.
“Hemos visto que las aplicaciones de chat únicas con un mensaje abierto no siempre generan los mejores resultados para los usuarios”, dijo Dong a Digiday. “Hay mucha confusión y depende en gran medida de que el usuario sea un experto en indicaciones”.
Parte del desafío con la adopción de la IA es que las empresas no siempre saben lo que necesitan o quieren construir, dijo Karli DeFilippo, vicepresidenta ejecutiva de experiencia en MediaMonks, una agencia socia de AWS. Eso requiere más ejemplos de lo que es posible y al mismo tiempo aliviar los temores de las marcas sobre lo que sucederá si algo sale mal con una iniciativa de IA.
“Si recibimos un informe o algo así y [a client] “No estamos listos, no vamos a seguir adelante y hacerlo de todos modos”, dijo DeFilippo. “Es casi como una parálisis del análisis. Saben que quieren llegar ahí, que les han dado un KPI o que su jefe los está golpeando. Pero todavía parecen necesitar saber exactamente qué es lo correcto, qué opciones son las adecuadas para ellos, porque hay muchas opciones en este momento”.
Con información de Digiday
Leer la nota Completa > Amazon agrega herramientas para escalar aplicaciones de IA generativa y mejorar los problemas de precisión