Как работает RAG
После того как пользователь задал вопрос, запускается процесс, состоящий из трех основных этапов.
Поиск/Извлечение (Retrieval)
Модуль поиска преобразует пользовательский запрос в вектор и ищет наиболее релевантные фрагменты в базе знаний. Для этого используются векторные поисковые системы и индексация корпоративных данных. При индексации каждый документ или его фрагмент преобразуется в цифровой отпечаток (embedding). По ним система быстро находит релевантную информацию под запрос, без необходимости ручного подбора ключевых слов.
Допустим, вы пришли в большой книжный магазин и хотите найти книгу, но не помните ни автора, ни название. Вместо этого вы просто рассказываете продавцу, о чем книга, или для чего она вам нужна. Продавец моментально находит одну или несколько подходящих по смыслу книг, даже если в них не встречается тех слов, которыми вы описали сюжет. Так работает RAG. Он понимает суть вашего вопроса и ищет по смыслу, а не по попаданию в ключевые слова.
Обогащение контекста (Augmented)
Перед передачей запроса в LLM система дополняет его найденными фрагментами контекста, выдержками из документов и другими данными, чтобы расширить его информативность.
Генерация (Generation)
На этом этапе LLM генерирует ответ с учетом запроса пользователя и добавленного контекста. Ответом может быть саммари, объяснение, пост, статья, урок, именно то, что запросил пользователь.
Важно! Качество ответов системы зависит от качества корпоративной базы знаний. Если данные в ней устарели или отсутствуют важные сведения, система не сможет дать точный ответ.
Этот материал — часть исследования Haiku о RAG. Полное исследование доступно для чтения. Если вы хотите обсудить внедрение RAG в вашей компании, напишите на почту sergey.ershov@haiku.dev или в телеграм @Ershovsa.
Неделя рекламы
Энциклопедия обмана