Agentic Reasoning:推理界RAG诞生!牛津大学框架让LLM学会『组队打怪』:动态调用搜索/代码代理,复杂任务准确率飙升50%

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: Agentic Reasoning 是牛津大学推出的增强大型语言模型(LLM)推理能力的框架,通过整合外部工具提升多步骤推理、实时信息检索和复杂逻辑关系组织的能力。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


⚙️ “LLM推理进入模块化时代!深度解读牛津大学Agentic Reasoning框架设计哲学”

大家好,我是蚝油菜花。今天要解剖一个可能改变AI推理范式的开源项目——

Agentic Reasoning 的三大设计原则:

  • 1️⃣ 功能解耦:将工具调用拆分为独立代理(搜索/代码/Mind Map),主模型只做路径决策
  • 2️⃣ 概率驱动:用联合概率模型评估推理路径,自动选择最优解而非暴力穷举
  • 3️⃣ 知识流动:通过NLP流水线实现「检索-分析-组织-验证」的认知闭环

这个框架最精妙之处在于:它让LLM从『答题者』变成了『指挥官』 。在生物医药文献分析场景中,研究者用它自动调用PubMed搜索、数据可视化代码和知识图谱构建,原本3天的工作缩短到2小时。现在,让我们从架构图开始逐层剖析...

🚀 快速阅读

Agentic Reasoning 是一个增强 LLM 推理能力的框架,旨在解决复杂的多步骤推理问题。

  1. 核心功能:通过动态调用外部代理(如网络搜索、代码执行和结构化记忆),提升推理的效率和准确性。
  2. 技术原理:基于动态工具调用机制和迭代推理过程,结合概率生成模型优化推理路径。

Agentic Reasoning 是什么

Agentic Reasoning-cover

Agentic Reasoning 是牛津大学推出的一个增强大型语言模型(LLM)推理能力的框架。它通过整合外部工具(如网络搜索、代码执行和结构化记忆),帮助 LLM 解决复杂的多步骤推理问题。Agentic Reasoning 的核心思想是让 LLM 在推理过程中动态调用外部代理,实时检索信息、执行计算分析和组织复杂逻辑关系。

该框架在博士级科学推理(如 GPQA 数据集)和领域特定的深度研究任务中表现出色,优于现有的检索增强生成(RAG)系统和封闭源 LLM。

Agentic Reasoning 的主要功能

  • 增强多步骤推理能力:基于外部工具(如网络搜索、代码执行和结构化记忆),让 LLM 更高效地处理需要深度研究和多步骤逻辑推导的复杂问题。
  • 实时信息检索与更新:用网络搜索代理实时获取最新信息,确保推理过程中知识的准确性和时效性。
  • 复杂逻辑关系组织:基于 Mind Map 代理构建知识图谱,帮助 LLM 清晰地组织和跟踪推理过程中的逻辑关系,提升演绎推理能力。
  • 计算分析支持:借助代码代理执行编程任务,为需要定量分析的问题提供精确的计算结果。
  • 提升推理效率和准确性:基于任务分配和工具调用,减少主推理模型的负担,避免因处理辅助任务而中断推理链。
  • 专家级知识合成:在深度研究任务中,生成高质量的分析报告,达到甚至超越人类专家的水平。

Agentic Reasoning 的技术原理

  • 动态工具调用机制:在推理过程中,LLM 根据当前推理需求,实时决定是否调用外部工具(如网络搜索或代码执行)。当需要外部信息时,LLM 生成特定的查询请求并嵌入专用标记(如“搜索”或“代码”标记),暂停推理并将请求发送给相应的代理。
  • 外部代理的协同工作
    • Mind Map 代理:将推理链转化为结构化的知识图谱,基于实体识别和语义关系提取,为推理提供逻辑支持。知识图谱能被查询,帮助 LLM 在推理过程中快速获取相关信息。
    • 网络搜索代理:从互联网检索与推理上下文相关的文档,基于 LLM 提取关键信息,生成简洁的总结,确保信息的相关性和逻辑连贯性。
    • 代码代理:接收 LLM 的代码请求,编写并执行代码,返回结果。避免 LLM 直接生成和执行代码的复杂性,提升推理效率。
  • 迭代推理与知识更新:推理过程是迭代循环,LLM 根据外部代理返回的结果更新推理链,逐步完善逻辑推导,直到得出最终答案。
  • 基于概率的生成模型:推理链和最终答案的生成基于联合概率模型,结合任务指令、查询、工具输出和知识图谱,动态生成连贯的推理过程和准确的答案。
  • 推理优化与验证:基于工具调用频率等指标优化推理过程,选择最佳推理路径,提升推理的准确性和效率。

如何运行 Agentic Reasoning

1. 安装环境

首先,从 environment.yml 文件安装依赖环境:

conda env create -f environment.yml

2. 配置 API 密钥

如果使用远程 LLM 或进行深度研究,需配置相关 API 密钥:

export OPENAI_API_KEY="your openai api key"
export YDC_API_KEY="your you.com api key"
export JINA_API_KEY="your jina api key"
export BING_SUBSCRIPTION_KEY="your bing api key"

3. 运行脚本

运行 Agentic Reasoning 的命令如下:

python scripts/run_agentic_reason.py \
--use_jina True \
--jina_api_key "your jina api key" \
--bing_subscription_key "your bing api key" \
--remote_model "your remote model name, e.g. gpt-4o" \
--mind_map True \ (optional)
--deep_research True \ (optional, if you want to use deep research)

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关文章
|
18天前
|
机器学习/深度学习 人工智能 索引
RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块
RAG 里的文档应该怎么切割比较好呢?按固定的字符数或词数?按句?按段落?加个重叠窗口?还是 ...
103 1
RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块
|
7月前
|
数据采集 算法 数据挖掘
CLIMB自举框架:基于语义聚类的迭代数据混合优化及其在LLM预训练中的应用
英伟达提出的CLIMB框架,是一种自动化优化大型语言模型(LLM)预训练数据混合的创新方法。通过语义嵌入与聚类技术,CLIMB能系统地发现、评估并优化数据混合策略,无需人工干预。该框架包含数据预处理、迭代自举及最优权重确定三大阶段,结合小型代理模型与性能预测器,高效搜索最佳数据比例。实验表明,基于CLIMB优化的数据混合训练的模型,在多项推理任务中显著超越现有方法,展现出卓越性能。此外,研究还构建了高质量的ClimbMix数据集,进一步验证了框架的有效性。
270 0
CLIMB自举框架:基于语义聚类的迭代数据混合优化及其在LLM预训练中的应用
|
8月前
|
人工智能 数据可视化 API
36.7K star!拖拽构建AI流程,这个开源LLM应用框架绝了!
`Flowise` 是一款革命性的低代码LLM应用构建工具,开发者通过可视化拖拽界面,就能快速搭建基于大语言模型的智能工作流。该项目在GitHub上线不到1年就斩获**36.7K星标**,被开发者誉为"AI时代的乐高积木"。
439 8
|
5月前
|
机器学习/深度学习 算法 PyTorch
从零开始200行python代码实现LLM
本文从零开始用Python实现了一个极简但完整的大语言模型,帮助读者理解LLM的工作原理。首先通过传统方法构建了一个诗词生成器,利用字符间的概率关系递归生成文本。接着引入PyTorch框架,逐步重构代码,实现了一个真正的Bigram模型。文中详细解释了词汇表(tokenizer)、张量(Tensor)、反向传播、梯度下降等关键概念,并展示了如何用Embedding层和线性层搭建模型。最终实现了babyGPT_v1.py,一个能生成类似诗词的简单语言模型。下一篇文章将在此基础上实现自注意力机制和完整的GPT模型。
355 14
从零开始200行python代码实现LLM
|
5月前
|
机器学习/深度学习 人工智能 PyTorch
200行python代码实现从Bigram模型到LLM
本文从零基础出发,逐步实现了一个类似GPT的Transformer模型。首先通过Bigram模型生成诗词,接着加入Positional Encoding实现位置信息编码,再引入Single Head Self-Attention机制计算token间的关系,并扩展到Multi-Head Self-Attention以增强表现力。随后添加FeedForward、Block结构、残差连接(Residual Connection)、投影(Projection)、层归一化(Layer Normalization)及Dropout等组件,最终调整超参数完成一个6层、6头、384维度的“0.0155B”模型
257 11
200行python代码实现从Bigram模型到LLM
|
7月前
|
机器学习/深度学习 人工智能 算法
RAGEN:RL训练LLM推理新范式!开源强化学习框架让Agent学会多轮决策
RAGEN是一个基于StarPO框架的开源强化学习系统,通过马尔可夫决策过程形式化Agent与环境的交互,支持PPO、GRPO等多种优化算法,显著提升多轮推理训练的稳定性。
658 5
RAGEN:RL训练LLM推理新范式!开源强化学习框架让Agent学会多轮决策
|
8月前
|
机器学习/深度学习 人工智能 算法
SWEET-RL:基于训练时信息的多轮LLM代理强化学习框架
SWEET-RL是一种基于训练时信息的逐步评估算法,显著提升了多轮大型语言模型(LLM)代理在强化学习中的成功率。相比现有方法,SWEET-RL将成功率提高6%,使小型开源模型如Llama-3.1-8B达到甚至超越GPT-4O等大型专有模型性能。通过非对称Actor-Critic结构、创新优势函数参数化及两阶段训练流程,SWEET-RL优化了信用分配机制与泛化能力,降低了计算成本。ColBench基准测试显示,SWEET-RL在后端编程和前端设计任务中表现卓越,为AI代理训练技术带来突破性进展。
253 2
SWEET-RL:基于训练时信息的多轮LLM代理强化学习框架
|
7月前
|
人工智能 算法 数据库
美团面试:LLM大模型存在哪些问题?RAG 优化有哪些方法?_
美团面试:LLM大模型存在哪些问题?RAG 优化有哪些方法?_
|
9月前
|
数据采集 搜索推荐 API
LLM 联网搜索,到底是咋回事?
LLM 联网搜索,到底是咋回事?
|
7月前
|
人工智能 开发框架 搜索推荐
27.4K Star!这个LLM应用宝库让你秒变AI全栈高手,RAG和AI Agent一网打尽!
想要快速入门LLM应用开发?想要了解最新的RAG和AI Agent技术?这个收获27.4K Star的开源项目集合了当下最热门的LLM应用案例,从简单的PDF对话到复杂的多智能体系统应该有尽有。无论你是AI开发新手还是经验丰富的工程师,这里都能找到适合你的项目!
300 0

热门文章

最新文章