找回密码
 加入怎通
查看: 378|回复: 0

RAG 修炼手册|一文讲透 RAG 背后的技术

[复制链接]
ningxueqin 发表于 2024-07-14 13:08:45 | 显示全部楼层 |阅读模式
  今天我们继续剖析 RAG,将为大家大家详细介绍 RAG 背后的例如 Embedding、Transformer、BERT、LLM 等技术的发展历程和基本原理,中国向量数据库以及它们是如何应用的。% O8 ]; [4 m7 @1 q8 K/ @- ^

; ^4 V9 ?, S8 z+ k( c& F. |

! V# g3 d4 I9 h  `. b1 B  01.什么是 Embedding?' E8 R0 N0 [% K

8 r5 \+ t: }3 A

9 j6 s- \/ }1 j) L  Embedding 是将离散的非结构化数据转换为连续的向量表示的技术。
& Y  Q: T. ^2 D7 ~/ E# s3 Y! A4 ]$ w1 E
0 W6 ~. e1 `: b( D& ?
  在自然语言处理中,Embedding 常常用于将文本数据中的单词、句子或文档映射为固定长度的实数向量,使得文本数据能够在计算机中被更好地处理和理解。通过 Embedding,每个单词或句子都可以用一个实数向量来表示,这个向量中包含了该单词或句子的语义信息。这样,相似的单词或句子就会在嵌入空间中被映射为相近的向量,具有相似语义的词语或句子在向量空间上的距离也会较近。这使得在进行自然语言处理任务时,可以通过计算向量之间的距离或相似度来进行词语或句子的匹配、分类、聚类等操作。( J/ i6 r& \- ^

5 [5 _; {1 d/ O: B

$ I6 w* C" R! I/ u- L& ?  Word2Vec
. M2 g% D6 E, N+ }, r% K* u- I' l) o9 _( ]- ^! _- J
, X( \5 ^% B) m0 e
  Word2Vec 是 2013 年由谷歌提出了一套词嵌入方法。Word2vec 是 Word Embedding 方式之一,这种方式在 2018 年之前比较主流。Word2Vec 作为词向量的经典算法之一,被广泛应用于各种自然语言处理任务。它通过训练语料库来学习单词之间的语义和语法关系,将单词映射到高维空间中的稠密向量。Word2Vec 的问世开创了将单词转化为向量表示的先河,极大地促进了自然语言处理领域的发展。9 C2 o( D" i- j; v
/ Y. I2 D. h) b
: Z6 Z# b; W: p3 U) c
  Word2vec 模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。下图是展示一个 2 维的向量空间的例子(实际可能是比较高的维度)。
/ R+ K/ N6 _* o- R4 d" ]% u+ @4 \) I6 L5 V) a+ \  U/ c, M- j! `
8 H) p- |# N% B
  从图中可以看到,在这个 2 维空间内,每个 word 的分布有明显的特征。比如从 man到 woman,要加上一个向右上方向的向量,可以认为这个向量是一种“把男性转换到女性的向量”。如果把 king 也加上这个向量,可以得到 queen 的位置。在图中可以看到从 Paris 到 France 也有一种像是“从国家变为首都”的结构向量。
" R& e' b' o' v5 i
& g# O/ D) d3 |" Z  T( D: H

" R3 H" X7 J) x6 J+ [# B  这一神奇的现象表明了向量在 embedding 内空间并不一是个杂乱无章随意的分布。在哪个区域表示哪些类别,区域和区域之间的差异,这些都有明显的特征。这样可以推出一个结论:向量的相似度代表的就是原始数据的相似度。所以向量的搜索实际上代表的就是原始数据的语义搜索。这样,我们就可以用向量搜索来实现很多语义相似搜索的业务。# M- }: m% q6 @  x5 p
7 \3 B1 d4 |5 r: p8 w9 A+ C) C
回复

使用道具 举报

    您需要登录后才可以回帖 登录 | 加入怎通

    本版积分规则

    QQ|手机版|小黑屋|网站地图|真牛社区 ( 苏ICP备2023040716号-2 )

    GMT+8, 2026-3-22 13:50 , Processed in 0.046383 second(s), 23 queries , Gzip On.

    免责声明:本站信息来自互联网,本站不对其内容真实性负责,如有侵权等情况请联系420897364#qq.com(把#换成@)删除。

    Powered by Discuz! X3.5

    快速回复 返回顶部 返回列表