Skip to Content

¿Qué es la Generación Aumentada de Recuperación (RAG)?

El aprendizaje automático y la IA son herramientas potentes que pueden cambiar el mundo, pero solo son tan potentes como los datos que les alimentan y los modelos que utilizan. Una parte esencial del aprendizaje automático y la IA, el procesamiento del lenguaje natural (NLP) permite que los ordenadores interpreten, manipulen y comprendan el lenguaje humano. 

La recuperación de la generación aumentada (RAG) representa un gran avance en el PNL al salvar la brecha entre las capacidades generativas y el acceso al conocimiento externo, lo que conduce a una comprensión del lenguaje y a los sistemas de generación más sólidos y conscientes del contexto.

Este artículo explica qué es RAG, por qué es importante, cómo funciona y sus aplicaciones y beneficios. 

¿Qué es RAG?

RAG es una técnica para ampliar las capacidades de los LLM más allá de sus datos de formación originales, integrándolos con una base de conocimientos autorizada externa.

En RAG, un modelo generativo de aprendizaje automático recupera la información relevante de una gran base de conocimientos externa durante el proceso de generación, lo que genera un contexto más rico, unos resultados más ricos y un mejor contenido. 

¿Por qué RAG es importante en el campo del PNL?

RAG combina los puntos fuertes de los modelos de lenguaje preentrenados con la riqueza contextual de la información recuperada, lo que permite generar texto más informado y preciso en diversas aplicaciones, incluidos los sistemas de respuesta a preguntas, resumen y diálogo.

RAG es un concepto importante en el campo de los PNL, porque genera:

Mejor comprensión contextual: Al incorporar un mecanismo de recuperación, los modelos RAG pueden acceder a una gran cantidad de conocimientos externos o contexto relevante para la consulta de entrada o la tarea de generación. Esto permite que el modelo entienda mejor el contexto, lo que da lugar a unas respuestas más precisas y contextualmente relevantes.

Mejor generación de contenido: Los modelos RAG pueden generar un contenido que no solo sea fluido, sino que también esté basado en el conocimiento del mundo real. Esto es especialmente útil en tareas en las que el resultado generado tiene que ser factual y coherente.

Sesgo y desinformación reducidos: Los modelos RAG pueden ayudar a reducir los sesgos y la desinformación al verificar el contenido generado con fuentes externas. Al incorporar diversas perspectivas desde una base de conocimientos, el modelo puede producir resultados más equilibrados y precisos de manera objetiva.

Flexibilidad y adaptabilidad: Las arquitecturas RAG son flexibles y adaptables a diferentes dominios e idiomas. Pueden aprovechar bases de conocimientos específicas de dominio o adaptarse a nuevos temas recuperando la información relevante dinámicamente durante la inferencia.

Escalabilidad: Los modelos RAG pueden escalarse de manera efectiva para manejar bases de conocimientos a gran escala. El componente de recuperación no se basa únicamente en parámetros previamente entrenados, lo que hace que el enfoque sea escalable a diversas aplicaciones y casos de uso.

Aprendizaje y mejora constantes: Los sistemas RAG pueden diseñarse para aprender y mejorar continuamente con el tiempo. Al incorporar mecanismos de retroalimentación y procesos de refinamiento iterativos, los modelos RAG pueden mejorar su rendimiento, precisión y relevancia para generar contenido de alta calidad. Este ciclo de aprendizaje iterativo contribuye a la efectividad y fiabilidad a largo plazo de las aplicaciones basadas en RAG.

¿Cómo funciona RAG?

RAG combina modelos de lenguaje preentrenados con mecanismos de recuperación para mejorar la generación de resultados basados en texto. 

Veamos los componentes fundamentales de RAG:

  1. Modelos lingüísticos con formación previa 
  2. El proceso comienza con un modelo de lenguaje preentrenado, como un transformador preentrenado generativo (GPT) o representaciones de encoder bidireccionales de transformadores (BERT). Estos modelos están formados en grandes cantidades de datos de texto y pueden entender y generar texto similar al humano.

  3. Mecanismos de recuperación
  4. El mecanismo de recuperación obtiene información relevante de una base de conocimientos usando técnicas como Okapi BM25 (una función de clasificación utilizada por los motores de búsqueda). 

  5. Bases de conocimientos
  6. RAG requiere acceder a una base de conocimientos o a un cuerpo de trabajo que tenga información relevante para la tarea en cuestión. Puede ser una base de datos, un conjunto de documentos o incluso un conjunto de páginas web seleccionadas.

  7. Introducir consultas
  8. El usuario proporciona una consulta de entrada o una solicitud al sistema RAG. Esta consulta puede ser una pregunta, una frase parcial o cualquier forma de entrada que requiera contexto o información para generar una respuesta significativa.

  9. Proceso de recuperación
  10. El mecanismo de recuperación procesa la consulta de entrada y recupera los documentos o pasajes relevantes de la base de conocimientos. 

  11. La fusión del contexto
  12. La información recuperada se fusiona con la consulta de entrada original o con la solicitud para crear una entrada rica en contexto para el modelo de idioma. Este paso de fusión de contexto garantiza que el modelo de idioma tenga acceso a la información relevante antes de generar el resultado.

  13. Generación
  14. El modelo de lenguaje preentrenado toma la entrada enriquecida en contexto y genera el resultado deseado. Este resultado puede ser una respuesta completa a una pregunta, la continuación de una historia, una frase parafraseada o cualquier otra respuesta basada en texto.

  15. Evaluación y refinamiento
  16. El resultado generado puede evaluarse basándose en métricas predefinidas o en el criterio humano. El sistema se puede refinar y ajustar en función de la retroalimentación para mejorar la calidad de los resultados generados con el tiempo.

Aplicaciones RAG

RAG es útil en muchos tipos de aplicaciones en diversos sectores. 

Chatbots

El ejemplo más común serían los chatbots y los asistentes virtuales, en los que RAG mejora las capacidades conversacionales al proporcionar respuestas contextualmente relevantes y precisas. Un chatbot de servicio al cliente de una empresa de telecomunicaciones, por ejemplo, puede usar RAG para recuperar información de su base de conocimientos, como preguntas frecuentes, especificaciones de productos y guías de resolución de problemas. Cuando un usuario del sitio web hace una pregunta, el chatbot puede generar respuestas basadas tanto en la consulta del usuario como en el conocimiento recuperado, lo que genera interacciones más informativas y útiles.

Generación de contenido

Otras aplicaciones RAG comunes son la generación y el resumen del contenido. Por ejemplo, un sistema de resumen de noticias puede usar RAG para obtener artículos relacionados o información básica sobre un tema concreto. El sistema puede crear un resumen conciso e informativo sintetizando los conocimientos recuperados con los puntos principales del artículo de noticias, proporcionando a los lectores una visión general completa sin omitir detalles importantes.

Modelos de lenguaje grande

RAG puede usarse para casos de uso de modelos de lenguaje grande (LLM) a gran escala y de alto rendimiento, al permitir que las empresas mejoren y personalicen los LLM generales con fuentes de datos externas, más específicas y patentadas. Esto aborda cuestiones clave de la IA generativa, como las alucinaciones, lo que hace que los LLM sean más precisos, oportunos y relevantes, al hacer referencia a bases de conocimientos distintas de las que se han formado.

Comercio electrónico

RAG también ayuda en cosas como las aplicaciones de comercio electrónico al recuperar las reseñas de los productos, las especificaciones y los comentarios de los usuarios. Cuando el usuario busca un producto o una categoría específicos, el sistema puede generar recomendaciones personalizadas basadas en las preferencias del usuario, las interacciones pasadas y los conocimientos recuperados. 

Educación

Las instituciones educativas y los sitios web pueden usar RAG para crear experiencias de aprendizaje personalizadas y proporcionar contexto adicional al contenido educativo. Un sistema de tutoría basado en la IA, por ejemplo, puede usar RAG para acceder a materiales educativos, libros de texto y recursos complementarios relacionados con los temas que se enseñan. Cuando un estudiante hace una pregunta o solicita una aclaración sobre un concepto, el sistema puede generar explicaciones o ejemplos combinando el conocimiento recuperado con el contexto de aprendizaje actual del estudiante.

Sanidad

Los sistemas de información sanitaria pueden usar RAG para proporcionar a los médicos y pacientes información médica precisa y actualizada. Un chatbot médico o un sistema de información pueden usar RAG para recuperar la literatura médica, las directrices de tratamiento y los materiales educativos para los pacientes. Cuando un profesional sanitario o un paciente pregunta por una afección médica, una opción de tratamiento o un síntoma específicos, el sistema puede generar respuestas informativas basadas en los conocimientos obtenidos, lo que ayuda a los usuarios a tomar decisiones fundamentadas y a entender conceptos médicos complejos más fácilmente.

Estos ejemplos muestran la versatilidad de RAG en todos los sectores y ponen de relieve su potencial para mejorar varios aspectos de las aplicaciones de PNL, generación de contenido, sistemas de recomendación y gestión del conocimiento.

Conclusión

RAG combina modelos de lenguaje previamente entrenados con mecanismos de recuperación para mejorar las tareas de generación de texto. Mejora la calidad del contenido, reduce los sesgos y aumenta la satisfacción del usuario, la escalabilidad y las capacidades de aprendizaje continuo. Las aplicaciones RAG incluyen chatbots, generación de contenido, sistemas de recomendación, plataformas educativas, sistemas de información sanitaria y más. 

A medida que RAG sigue evolucionando e integrándose con las tecnologías de IA avanzadas, tiene el potencial de revolucionar la manera en que interactuamos con los sistemas de IA, proporcionando experiencias más personalizadas, informativas y atractivas en las interacciones con el lenguaje natural.

Descubra cómo una canalización RAG con GPU NVIDIA, redes NVIDIA, microservicios NVIDIA y FlashBlade//S TM de Pure Storage puede optimizar las aplicaciones GenAI empresariales.

03/2024
High-Performance AI for State and Local Government
AI has the potential to transform national, state, and local governments. Here’s how AIRI, AI-ready infrastructure by Pure Storage and NVIDIA, can help.
Resumen de la solución
4 páginas
CONTACTAR CON NOSOTROS
¿Preguntas, comentarios?

¿Tiene alguna pregunta o comentario sobre los productos o las certificaciones de Pure?  Estamos aquí para ayudarle.

Programe una Demostración

Programe una demostración en vivo y vea personalmente cómo Pure puede ayudarle a convertir sus datos en unos resultados potentes. 

Llámenos al: +34 51 889 8963

Medios de comunicaciónpr@purestorage.com

 

Castellana 81

28046 Madrid

Oficinas Pure: 1415 y 1417 (planta 14)

info@purestorage.com

CERRAR
Your Browser Is No Longer Supported!

Older browsers often represent security risks. In order to deliver the best possible experience when using our site, please update to any of these latest browsers.