15 种高级 RAG 技术,值得收藏!

Published on
6 mins read
--- views

原文首发: 15 种高级 RAG 技术,值得收藏!

高级 RAG 技术汇总

  1. 增加信息密度:运用 LLMs 处理、清理与标记数据,提升信息密度,缩减生成模型所需上下文窗口规模,削减成本并增强响应精准度,恰似将教科书精缩为要点笔记,助益高效复习。
  2. 应用分层索引检索:凭借文档摘要构建多层索引,优先检索关联度高的摘要内容,再深入详细文档,加速检索流程,如同依书籍目录或摘要定位章节后精读,优于逐页通读。
  3. 改善检索对称性:为各文档生成假设问答对并嵌入检索,提升查询与文档语义契合度,缓解检索时上下文缺失难题,类似依少量示例预推答案,缩小检索范围。
  4. 使用 LLMs 去重信息:借助 LLMs 筛除嵌入空间重复数据块,精简为关键有用部分,优化响应质量,从冗余走向凝练。
  5. 测试和优化分块策略:依实际情形测试多种分块策略,借调整块大小、重叠率等参数寻最佳嵌入模式,强化检索效能,似深度学习调参以臻最优。
  6. 优化搜索查询:于对话系统内,借 LLMs 依系统需求优化用户查询语句,确保搜索引擎精准高效定位信息,如专业人士改写关键词精准检索。
  7. 使用假设文档嵌入修正查询与文档的非对称性:检索前造与用户查询关联的假设文档,以其嵌入代用户查询行语义检索,提升检索精度,从源头校准检索方向。
  8. 实施查询路由或 RAG 决策模式:在多数据源体系,依 LLMs 判定查询去向或是否需 RAG 检索,节降成本、提升效率,依需定向,避免资源虚耗。
  9. 重新排名以优化搜索结果:借重排模型优序检索成果,前置高关联文档,提升 RAG 系统性能,如网购时将优质商品置顶,提升用户检索体验。
  10. 使用上下文压缩优化搜索结果:经 LLMs 处理压缩检索所得信息,留存关键要素,既降成本又避冗余,精准提炼要点以应需求。
  11. 使用纠正 RAG 对检索文档打分和过滤:用训练模型评估 RAG 结果,筛除无关或有误文档,留存有效信息,如专家甄别资料,确保内容价值。
  12. 通过链式思维提示屏蔽噪音:利用链式思维提示提升 LLM 在噪声或无关信息干扰下的答题正确率,于复杂情境稳健寻真。
  13. 让系统具备自我反思能力:训练模型生成反思标识,依此判定检索或修正生成内容,提升质效,类人反思后决策,增强内容可靠度。
  14. 通过微调忽略无关上下文:微调模型优化 RAG 表现,使其辨明并略过无关上下文,聚焦关键信息高效响应,适配垂直领域需求。
  15. 使用自然语言推理让 LLMs 更好地应对无关上下文:借 NLI 模型过滤无关上下文,仅当问题与答案蕴含关系确立时启用检索上下文,确保信息强关联。

技术效果概览

  • 信息密度:GPT - 4 处理成效斐然,如原始 HTML 经多轮处理,令牌数大幅降至 330,信息高度浓缩。
  • 检索效率:分层索引检索与假设问题索引双管齐下,显著提升检索效率及结果相关性,精准定位目标。
  • 分块策略:测试表明 1,000 字符分块搭配 200 字符重叠策略最优,得分 4.34,为数据分块立标。
  • 假设文档嵌入:以此法行语义检索,检索精度跃升,优化检索路径与成果质量。
  • 查询路由和 RAG 决策模式:精准甄别无需 RAG 检索的查询,合理分配资源,规避无端损耗。
  • 重新排序和压缩:二者协同,优化生成响应的质量与效率,提升用户获取有效信息的速度与满意度。
  • 评分和过滤:T5 - Large 模型担纲评分过滤重任,显著抬升响应准确性,为优质内容输出护航。