大模型应用之RAG技术学习
2024-10-26 02:42:0 Author: mp.weixin.qq.com(查看原文) 阅读量:19 收藏

什么是RAG

检索增强生成(Retrieval Augmented Generation, RAG)是一种技术,它通过从数据源中检索信息来辅助大语言模型(Large Language Model, LLM)生成答案。

简而言之,RAG 结合了搜索技术和大语言模型的提示词功能,即向模型提出问题,并以搜索算法找到的信息作为背景上下文,这些查询和检索到的上下文信息都会被整合进发送给大语言模型的提示中。

为什么会出现RAG

思考一个问题:为什么会出现RAG这一项技术?

一般来说,想要给大模型输入指定的知识有两种办法:一种是在prompt时加入上下文,另一种是通过fine-tuning。

如果知识较少且较为固定的时候还好,但是当知识库非常大且需要频繁迭代的时候,这两种办法的局限性就更加突出了:

  1. 如果通过prompt,大模型是有token数量限制的。面对庞大的知识库,大模型不可能一下子读取所有内容。

  2. 如果通过微调,加一点知识就要微调一次,各方面成本很高。

因此RAG技术应运而生。

RAG是怎么解决这个问题的呢?

简单来说,就是“外挂”一个向量数据库,每次查询之前在知识库中进行一次相似度检索,将较为精确的知识片段截取出来后,再拼接到prompt的上下文里作为背景知识。这样就同时解决了大模型token上限,以及知识库频繁迭代的问题。同时,通过prompt约束,还可以防止大模型幻觉的产生。

一个经典的图如下:

通常流程是:

文档向量化过程:文档->分词->embedding->向量数据库

用户查询过程:用户query->向量数据库查询->TOP N->上下文+ 用户提问 + prompt -> LLM -> 返回结果

这里涉及到几个关键名词:embedding、向量数据库、Retrieval

embedding

embedding是将现实中的物体通过向量化的方法转化为高维向量,可被机器学习模型所识别。他是一种映射,同时也保证了能清晰地表达现实物体的特征。基于此,可以进行一些归类分析、回归分析等。

向量数据库

向量数据库底层存储的是一堆向量,它提供了根据向量相似度进行查询的能力,一般情况下,向量相似度代表了现实世界中物体的相似度。比如”我的名字是小明“ 和“我叫小明”这两句话所代表的含义几乎是相同的,那么在embedding之后,基于向量数据库进行查询的时候,它们俩的相似度就会很近

Retrieval

文档检索(Retrieval)是信息检索领域中的一个关键任务,旨在从大量文档中找到与查询最相关的文档。根据具体使用的技术和方法,检索模式(Retrieval Mode)通常可以分为以下几种:

Embedding Only

Embedding Only 模式使用向量嵌入(vector embeddings)来表示文档和查询。向量嵌入是一种将高维数据映射到低维连续向量空间的技术,以便进行更高效的计算和比较。常见的Embedding技术包括Word2Vec、GloVe、BERT等。

  • 工作方式: 将查询和文档都转换成向量嵌入,通过计算它们之间的距离(如余弦相似度)来进行匹配。

  • 优点: 能捕捉到单词和短语之间的语义相似度,处理同义词和多义词效果较好。

  • 缺点: 对于未在训练集中见过的新单词可能表现较差,且计算嵌入向量可能需要较高的计算资源。

Keyword Only

Keyword Only 模式基于关键词匹配来进行文档检索。这种方法通常依赖于布尔检索模型或TF-IDF(Term Frequency-Inverse Document Frequency)等统计方法。

  • 工作方式: 将查询和文档转换为关键词集合,基于这些关键词进行匹配和排序。

  • 优点: 实现简单,计算效率高,适用于精确匹配的场景。

  • 缺点: 无法处理同义词和语义相似度,可能会错过语义相关但不包含指定关键词的文档。

Hybrid

Hybrid 模式结合了Embedding Only和Keyword Only两种方法,以便在检索过程中利用双方的优势。

  • 工作方式: 先使用Keyword Only方法进行初步过滤,然后再用Embedding Only方法进行精细排序,或者同时使用两种方法并融合它们的结果。

  • 优点: 在保证计算效率的同时,提高了语义理解的能力,能够更好地处理复杂查询。

  • 缺点: 实现复杂度较高,可能需要更多的计算资源和时间。

搭建过程

这里采用了手工编写代码搭建,以及使用阿里云人工智能PAI平台搭建两种方式。

自动搭建

商业化带来便利,提供婴儿级的一键式搭建服务。

阿里云的PAI平台支持一键部署大模型RAG对话系统,一行代码都不用写。

官方文档:https://help.aliyun.com/zh/pai/user-guide/deploy-a-rag-based-dialogue-system#2d416a8753chr

首先选择要使用哪个大模型。由于只是测试,选一个7b的Qwen2就够了。越大的模型需要越大的GPU,成本++

另外还有一个向量数据库的选择,其他类型数据库都需要单独开通服务。FAISS可以直接存储在内存或者磁盘上,对我们测试来说基本够用了,比较方便。

点击部署之后等一会就可以看到Web控制台了

Setting里基本不用修改已经配好,我们只需要上传我们的知识库文件。

在这里我搜集了一些阿里云云安全中心的公开文档,以及加了一条我个人的说明。

传完之后,会进行向量化的操作,接着就可以开始提问了。

问一些数据库中有的知识

问一些没有的知识,会进行拒答。

通过左边的prompt模板,可以设置拒答的内容

左边的选项,还可以仅开启数据库检索,或者仅开启大模型功能

选择仅调用大模型的时候就不再受知识库的约束了,这里回答的是模型自身拥有的知识。

手动搭建

由于langchain这个工具库的存在,我们可以很方便地通过代码手动搭建RAG。

直接搜索出来的demo样例,都是基于openai的。但是众所周知,由于一些神秘魔法的存在,国内无法直接访问chatgpt跟huggingface,需要做本土化兼容。

因此我用Tongyi来代替Openai,另外给huggingface设置镜像。注意 os.environ得在import huggingface库相关语句之前执行。

  1. import os

  2. os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'

完整代码如下:

  1. import os

  2. os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'

  3. from langchain.embeddings import HuggingFaceEmbeddings

  4. from langchain.text_splitter import CharacterTextSplitter

  5. from langchain.vectorstores import FAISS

  6. from langchain.document_loaders import TextLoader

  7. from langchain.chains import RetrievalQA

  8. from langchain.llms import Tongyi

  9. # 设置环境变量

  10. os.environ["DASHSCOPE_API_KEY"] = "xxxxx"

  11. # 初始化文本嵌入模型

  12. embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/paraphrase-multilingual-mpnet-base-v2")

  13. # 加载文档

  14. loader = TextLoader("知识库路径")

  15. documents = loader.load()

  16. # 分割文本

  17. text_splitter = CharacterTextSplitter(chunk_size=500, chunk_overlap=0)

  18. texts = text_splitter.split_documents(documents)

  19. # 创建向量存储

  20. vectorstore = FAISS.from_documents(texts, embeddings)

  21. # 初始化通义千问模型

  22. llm = Tongyi(model="qwen-turbo")

  23. # 创建检索问答链

  24. qa_chain = RetrievalQA.from_chain_type(

  25. llm=llm,

  26. chain_type="stuff",

  27. retriever=vectorstore.as_retriever(),

  28. return_source_documents=True

  29. )

  30. # 使用函数进行问答

  31. def ask_question(question):

  32. result = qa_chain({"query": question})

  33. return result["result"], result["source_documents"]

  34. # 示例使用

  35. question = "云安全中心有什么功能?"

  36. answer, sources = ask_question(question)

  37. print(f"问题: {question}")

  38. print(f"答案: {answer}")

  39. # print("\n来源文档:")

  40. # for i, doc in enumerate(sources):

  41. # print(f"文档 {i+1}:")

  42. # print(doc.page_content)

  43. # print("-" * 50)

至于参数的选择,embedding模型就找一个下载量高的,Claude给我推荐的是sentence-transformers/paraphrase-multilingual-mpnet-base-v2

chain_type如果没有特殊要求,或者特殊场景一般默认的Stuff就够用了。其他的几个类型定义以及对比如下:

好了,上面的代码不出意外,是可以直接运行的

不过还是出了点意外,自己本地跑的时候一直有一个报错

debug看一下,发现提示 Workspace.AccessDenied

后来发现应该是通义的API迭代了,之前申请的key是没有业务空间的概念的,虽然有效但是没办法使用。

重新申请了一个解决

开始提问:云安全中心有什么功能

谁是yzddmr6

问一个不在知识库里的问题:谁是yzddmr7。虽然没有找到,但是进行了相似内容的推荐。

接着问一个不在知识库里的问题:介绍一下腾讯公司

可以看到,虽然大模型回答没有找到腾讯公司的信息,但是还是以另外一种方式介绍了腾讯公司。这肯定是不符合预期的。

我们可以通过修改prompt来进行约束,禁止大模型回答知识库以外的内容。

  1. 你是一个只基于检索到的信息回答问题的ai助手,这里是对你的要求:

  2. 1,请仔细分析提供的上下文信息,并只使用其中包含的事实来回答问题。

  3. 2.如果问题无法完全用检索到的信息回答,请说明你无法回答该问题或该问题的某些部分。

  4. 3.不要编造,推测或添加任何未在检索结果中明确提供的信息。

这样大模型就不会再回答知识库以外的内容了。


文章来源: https://mp.weixin.qq.com/s?__biz=Mzg2MTc1NDAxMA==&mid=2247484136&idx=1&sn=9f34d272c4916648c2696d3e16508e57&chksm=ce13051df9648c0bf9348e46d6acf42daa1fcb230211435de394fea05b5bd4ae43b6a9946bf3&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh