
LiveMCPBench:在大型工具环境中评估 LLM 代理的新基准
三个要点
✔️ 提出了一个新的基准 LiveMCPBench,用于在大型 MCP 工具环境中评估 LLM 代理
✔️ LiveMCPTool 包含 70 台服务器和 527 个工具,是 LLM-as-a-Judge 方法的评估框架
✔️ Claude-Sonnet- 在实验中4 取得了约 79% 的成功率,许多模型暴露了性能差异和局限性。
LiveMCPBench: Can Agents Navigate an Ocean of MCP Tools?
written by Guozhao Mo, Wenliang Zhong, Jiawei Chen, Xuanang Chen, Yaojie Lu, Hongyu Lin, Ben He, Xianpei Han, Le Sun
(Submitted on 3 Aug 2025)
Comments: Our code and data will be publicly available at this https URL
Subjects: Artificial Intelligence (cs.AI); Computation and Language (cs.CL)
本文所使用的图片要么来自论文、介绍性幻灯片,要么是参考这些图片制作的。
总结
本文提出了一种新的基准--LiveMCPBench,用于评估大型工具使用环境中代理的能力。
传统基准假定只有少量的应用程序接口和模拟工具环境,不能充分反映现实中多样和动态的工具环境。
因此,作者利用标准化接口--模型上下文协议(MCP),构建了 LiveMCPTool,其中包括 70 个 MCP 服务器和 527 个真实工具。
此外,他们还引入了可实现评估自动化的 LiveMCPEval,通过使用 LLM 作为评估者,他们实现了与人类评估者 81% 的一致率。
我们还提出了可实现工具探索和顺序使用的 MCP Copilot Agent,并对十种最先进的模型进行了比较。
结果证实,Claude-Sonnet-4 的成功率约为 79%,而大多数模型的成功率仅为 30%-50%,这表明在大规模工具环境中的能力存在显著差异。
这项研究为评估提供了一个现实的、可重复的基础,并为未来的代理研究奠定了基础。
建议采用的方法
作者设计了一个由四个主要元素组成的框架,以评估代理是否能有效利用大型 MCP 工具套件。
首先,设计了各种日常任务,并收集了六个领域的 95 项实际任务,包括办公室工作、生活信息、金融、旅行和购物。
这提供了现实世界中需要时间变化和综合使用多种工具的任务。
其次,我们建立了LiveMCPTool,其中包含70个服务器和527个工具,不依赖外部API密钥,并随时提供给研究人员使用。
第三,我们提出了 LiveMCPEval,这是一种由 LLM 判断代理工具使用过程的方法。
这样就能在包含解决方案多样性和时间依赖性的环境中进行稳健的评估。
最后,我们开发了 MCP Copilot Agent,它基于 ReACT 策略,集成了工具探索和顺序执行功能。
该框架克服了传统方法中应用程序接口(API)不稳定性和小规模性的问题,并提供了一个现实的、可重复的评估环境。
实验
在 Claude-Opus-4、Claude-Sonnet-4、GPT-4.1、Gemini-2.5-Pro 和 DeepSeek-V3 等 10 个主要模型上进行了实验,使用 95 个任务来比较性能。
在使用DeepSeek-V3进行评估时,采用了LLM-as-a-Judge方法,并与人工评估结果进行了核对。
结果显示,Claude-Sonnet-4 的成功率最高,达到 78.95%,其次是 Claude-Opus-4,为 70.53%。
另一方面,GPT-4.1 和 Gemini-2.5-Pro 的成功率仅为 40%左右,这证实了许多模型都无法找到和组合工具。
其中,工具使用不当、未指定参数和 "检索错误"(未找到合适的工具)是主要的失败因素。
此外,对每个模型利用行为的分析表明,克劳德系统积极探索和利用多种工具,而其他模型则倾向于依赖单一工具。
此外,性价比权衡分析确定 Claude-Sonnet-4 和 Qwen2.5-72B 为具有成本效益的模型。
这些结果得出结论,目前的许多模型在大型工具环境中仍有局限性,未来需要改进任务分解和动态规划能力。
与本文相关的类别