随着大语言模型(LLM)技术的发展,RAG(Retrieval Augmented Generation)技术得到了广泛探讨和研究,越来越多的高级 RAG 检索方法也随之被人发现,相对于普通的 RAG 检索,高级 RAG 通过更深化的技术细节、更复杂的搜索策略,提供出了更准确、更相关、更丰富的信息检索结果。本文首先讨论这些技术,国产 向量数据库并基于 Milvus 给出一个实现案例。
9 F1 n7 s: h1 M$ z8 c3 c) R9 h6 `3 @, e3 S6 Y) u- x
& |, J- q1 H* @% S9 ~& S: O2 | 01.初级 RAG% o; }+ F7 ~5 U$ a2 B" d
7 U/ @* g2 ?' k/ q6 O* ]. ?9 v. k3 E, K9 U% b
初级 RAG 的定义1 h: e: H. z9 [, [
$ @; G9 C' Z$ U2 F z- q3 Q! V
* U5 p" D0 n" N* h8 k 初级 RAG 研究范式代表了最早的方法论,在 ChatGPT 广泛采用后不久就取得了重要地位。初级 RAG 遵循传统的流程,包括索引创建(Indexing)、检索(Retrieval)和生成(Generation),常常被描绘成一个“检索—读取”框架,其工作流包括三个关键步骤:9 }+ X# O( y- u1 k/ d
2 ?/ L+ ~, x8 ^: l3 s5 y/ P! U: }: x1 m" B3 k9 A0 U
语料库被划分为离散的块,然后使用编码器模型构建向量索引。8 C3 v s! U0 g+ V1 l# v8 o3 |) |
& W" j$ k% W7 W2 k7 Y! T
; A! X6 P. O) w; V7 ~
RAG 根据查询与索引块(Indexed Chunk)的向量相似度识别并对块进行检索。3 G- W3 Y2 l5 E- \0 p3 S( z: O
+ d8 r0 `5 ]# a1 B% V2 I& j8 v( i
6 u$ y- e+ }: t7 T1 r 模型根据检索块(Retrieved Chunk)中获取的上下文信息生成答案。
- |( M# `. @5 [& K: t& @6 U: Z# {( x# i) ?. r
4 g6 {( F+ R! b 初级 RAG 的局限性; }) i9 f. C3 t; r0 i: E
I$ m6 B {/ U
0 U; N" Q; Y! @0 q; |* {: P( ]/ P
初级 RAG 在三个关键领域面临着显著挑战:"检索"、"生成"和"增强"。0 r" n3 r- t1 A; Z
/ p5 `, C3 C _* P/ D
+ @, R8 ]( Z8 K2 D
初级 RAG 的检索质量存在许多问题,例如低精度和低召回率等。低精度会导致检索到的块无法对齐,以及幻觉等潜在问题。低召回率会导致无法检索到所有的相关块,从而导致LLM的回复不够全面。此外,使用老旧的信息进一步加剧了问题,可能导致不准确的检索结果。5 f1 j' i1 G/ n9 A
+ f& i+ [+ C5 h( d, B0 _+ i7 {2 @# k1 Q- p- [+ @8 c/ [9 t
生成回复质量面临着幻觉挑战,即 LLM 生成的答案并没有基于所提供的上下文,和上下文不相关,或者生成的回复存在着包含有害或歧视内容的潜在风险。
& W, G, ?! D$ T3 Z5 x: j8 ]! U: q- v% o/ n2 A1 l+ P
; U. m& o* u y
在增强过程中,初级 RAG 在如何有效地将检索到的段落的上下文与当前生成任务进行整合方面也面临着不小的挑战。低效的整合可能导致输出不连贯或破碎化。冗余和重复也是一个棘手的问题,特别是当多个检索到的段落包含相似信息时,生成的回复中可能会出现重复的内容。 P% l) P8 G2 B* x# r P
' u1 j {5 Q4 W$ ~% q
" }( f; X8 q9 K; d) A 02.高级 RAG
7 x) q+ X( p e5 p0 {/ s" ]% E: H/ T1 b' `$ L/ A
+ U4 T- [( u6 h$ W9 R' R 为了解决初级 RAG 的不足,高级 RAG 诞生了,并有针对性地进行了功能增强。首先讨论这些技术,这些技术可被归类为检索前优化、检索中优化和检索后优化。
S; B9 t, z1 Y3 J8 k* _" _3 N$ a3 Y# Q) g$ b$ N/ }# s
: n7 A+ A, q* b1 H* U% T
检索前优化+ X# e3 z6 T+ P m
9 L; K# @2 o H: Z' Q4 o! V
5 B2 U/ y% z4 S4 D. i! `0 |. t- s 检索前的优化关注数据索引优化以及查询优化,数据索引优化技术旨在以提高检索效率的方式存储数据:
7 Q( `0 w Z! J, r/ L. a% |$ B. Y' }* G/ s
% U# w, |9 k* A1 `5 F* h 滑动窗口:在数据块之间使用重叠,这是最简单的技术之一。
9 ^ e* l3 {7 c( F2 \
) i. ^" \$ P8 F, W' N- d5 n
& W7 Q, Z: `- s C 增强数据粒度:应用数据清理技术,例如移除不相关信息、确认事实准确性、更新过时信息等。
6 W5 @* h* f4 A" j1 S- a( u" N6 a0 S$ h; i9 m
) p) P1 V! ~! @$ M% h 添加元数据:如用于过滤的日期、目的或章节信息等。% y( _* T$ e+ {7 m6 ?
; ^2 h2 t+ C$ |( B
j% ~0 L, p$ D, ~7 w @ 优化索引结构涉及不同的数据索引策略:如调整块大小或使用多索引策略。本文我们将实现的一种技术是句子窗口检索,它在检索时嵌入单个句子,并在推断时用更大的文本窗口替换它们。
1 F1 `# g+ Q; w$ A# \" a: V I; q6 U$ _* G0 g* a0 W' \& }0 u
. V: ?3 n! @ F; O 检索中优化
- ~% b8 r9 [! R& a
( l! L! i/ \9 x2 ] k% `4 `6 h9 i) ]( h8 c
检索阶段主要是识别最相关的上下文。通常,检索是基于向量搜索,它计算查询和索引数据之间的语义相似性。因此,大多数检索优化技术都围绕着 embedding 模型:" O- O( @. T8 x* M8 H. q
- C& c& g2 j) L; Y' @7 M
8 F- C- [; }2 Z/ W 微调 embedding 模型:定制化 embedding 模型到特定领域上下文,特别是针对具有发展性或罕见术语的领域。例如,BAAI/bge-small-en 是一个高性能 embedding 模型,可以进行微调。$ C2 ~5 e e. J. `% l# X" M! ]
j$ ?0 K N- e/ j8 O4 i4 t. y9 l6 t6 r2 {" ]
动态 embedding:适应词语使用中的上下文,不同于使用每个词一个向量的静态embedding。例如,OpenAI 的 embeddings-ada-02 是一个复杂的动态embedding模型,捕捉到上下文理解。除了向量搜索之外,还有其他检索技术,如混合搜索(hybrid search),通常指的是将向量搜索与基于关键词的搜索相结合的概念。如果检索需要精确的关键词匹配,这种检索技术很有益处。
# t8 T( H: W% k' Z& d5 a. h- s" q" j* X6 u+ R; y
|