Python知識分享網(wǎng) - 專業(yè)的Python學習網(wǎng)站 學Python,上Python222
一個完整的、基于 LangChain 的 RAG(檢索增強生成)系統(tǒng)實現(xiàn)流程 PDF 下載
匿名網(wǎng)友發(fā)布于:2026-01-05 12:01:10
(侵權舉報)
(假如點擊沒反應,多刷新兩次就OK!)

一個完整的、基于 LangChain 的 RAG(檢索增強生成)系統(tǒng)實現(xiàn)流程 PDF 下載 圖1

 

資料內(nèi)容:

 

1.向量數(shù)據(jù)庫

 

1.向量數(shù)據(jù)庫是專門用來存儲和查詢向量的數(shù)據(jù)庫,其存儲的向量來自于對文本、語音、圖像、視頻等的向量
化。與傳統(tǒng)數(shù)據(jù)庫相比,向量數(shù)據(jù)庫可以處理更多非結(jié)構化數(shù)據(jù)(比如圖像和音頻)。在機器學習和深度學習
中,數(shù)據(jù)通常以向量形式表示。
2.用空間來描述高維數(shù)據(jù),以距離來判斷親疏。
3.可以高效檢索數(shù)據(jù),矩陣計算。
4. chrome(輕量化)、Milvs
5.文本切分后存入向量數(shù)據(jù)庫原因:
-大模型有上下文長度限制
-向量數(shù)據(jù)庫對單個文檔長度也有要求
-小塊更利于精準檢索
-常見 splitter:RecursiveCharacterTextSplitter, CharacterTextSplitter,
TokenTextSplitter
6.為什么不分塊會有問題?
1. 單頁內(nèi)容可能過長
-把檢索到的整個頁面 + 問題一起塞進 prompt,極易 超出 token 限制,導致截斷或報錯。
2. 語義粒度太粗
-向量數(shù)據(jù)庫會對每個“文檔”生成一個 embedding。如果一頁包含多個主題,那么它的
embedding 是這些主題的“平均”,無法精準匹配具體問題,embedding 被稀釋,相似度降低。
3. 檢索精度下降
-檢索返回的是整頁內(nèi)容,LLM 需要在一大段無關文本中找答案,容易出錯或產(chǎn)生幻覺。