凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

编辑:编辑部 HNY

【导读】OpenAI昨夜又放大招,Agents SDK接入行业标准MCP,下一步加持ChatGPT桌面版,要彻底颠覆每个人AI工作流。

自从昨天OpenAI将GPT-4o的原生图像生成同步开放给免费用户后,今天他们又Open了一把。

就在刚刚,OpenAI对其Agents SDK进行了重大更新,支持了对手Anthropic推出的MCP服务协议。

凌晨2点,奥特曼便迫不及待地公布了这个消息。

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

「大家都挺喜欢MCP的,我们也很兴奋能在我们的产品中支持它,」Altman说。

「今天就可以在Agents SDK里使用,ChatGPT桌面应用和Responses API也很快支持!」

OpenAI负责API的研究员Steven Heidel还在X上贴出了一张现在最火的吉卜力风格图片,来解释MCP的用处。

图片展示了一个基于MCP协议的分布式系统架构。

左边有一个主机运行MCP客户端(例如ChatGPT等应用),通过MCP协议与三个不同的MCP服务器(A、B、C)通信。

MCP服务器A和B分别连接到本地数据源,处理本地数据,而MCP服务C通过Web API与互联网上的远程服务C交互,获取外部数据。

表明了MCP客户端可以根据需求从不同的服务器获取数据或服务。

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

MCP持续火爆

MCP允许AI模型从业务工具、软件、数据库以及应用开发环境等来源中获取数据完成任务。

可以使开发者能够在数据源和AI应用(如聊天机器人)之间建立双向连接。

自从去年11月Anthropic把MCP服务协议开源后,几个月来,很多像Block、Apollo、Replit这样的公司都在自己的平台上支持了此协议。

到了今年2月,MCP生态进一步爆炸增长,已有超过1000个由社区构建的MCP服务器可供使用。

而且这种网络效应会使MCP越来越有吸引力:通过MCP可用的工具越多,该标准的实用性就越大。

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

「很高兴看到MCP的热爱传递到了OpenAI——欢迎!」Anthropic的首席产品官Mike Krieger在X上发帖说。

「MCP已经成了一个蓬勃发展的开放标准,已经有几千个集成应用,而且还在增加。只有当LLM能够连接你现有的数据和日常使用的软件时,它们才能发挥最大的作用。」

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

前段时间,。今天,CAMEL AI团队创始人李国豪表示:

看到OpenAI加入MCP生态是非常激动的,有想过会有这一天,但没有想到会这么快。

MCP推出已有一段时间,如今它逐步成为标准,主要是因为它提供了极大的便利性,同时又是一个开放中立的协议。

MCP的意义远远超过了一个简单的协议本身,而在于推动标准化的进程。实际上,这个协议由谁提出并不重要。

在标准缺失的情况下,各个团队都在独立开发自己的工具,如LangChain、LlamaIndex等,导致不同框架的Agent难以互通,不同框架的工具也难以兼容。

而有了MCP,这个问题就变得简单了。它的价值在于降低对特定框架的依赖,让开发者只需遵循统一标准,就能自由使用各种工具。

官方SDK文档

随着OpenAI在Agents SDK中加入对MCP的支持,开发者现在可以轻松地利用各种MCP服务器,为自己的AI智能体提供丰富的工具能力。

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

MCP服务器

目前,MCP规范根据传输机制的不同定义了两种服务器类型:

  1. stdio服务器:作为应用程序的子进程运行,可以理解为「本地」运行的服务器

  2. HTTP over SSE服务器:远程运行的服务器,可以通过URL与之连接

开发者可以使用MCPServerStdio和MCPServerSse这两个类来连接这些服务器。

下面是一个使用官方MCP文件系统服务器的示例。

async with MCPServerStdio(
params={
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", samples_dir],
}
) as server:
tools = await server.list_tools()

如何使用

开发者可以将MCP服务器集成到AI智能体中。

当AI智能体每次执行时,Agents SDK会自动在MCP服务器上调用list_tools()函数。这一过程使LLM能够识别并获取MCP服务器提供的各种工具。

当LLM需要调用来自MCP服务器的某个工具时,SDK会相应地在该服务器上执行call_tool()函数。

agent=Agent(
name="Assistant",
instructions="Use the tools to achieve the task",
mcp_servers=[mcp_server_1, mcp_server_2]
)

缓存机制

每次AI智能体运行时,系统都会调用MCP服务器的list_tools()方法。这一过程可能会产生明显的性能开销,尤其是在使用远程服务器的情况下。

为了优化性能,开发者可以通过在MCPServerStdio和MCPServerSse构造函数中设置参数cache_tools_list=True来启用工具列表自动缓存功能。请注意:只有确信工具列表不会发生变化时,才应启用此功能。

如需手动清除缓存,可以调用服务器对象的invalidate_tools_cache()方法。

链路追踪

系统内置的链路追踪功能能够自动捕获所有MCP相关操作,主要包括:

  1. 向MCP服务器发起的工具列表获取请求

  2. 函数调用过程中的所有MCP相关信息

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

MCP一夜成为行业标准

MCP这一概念,还是Anthropic在去年11月首次提出,全称为「模型上下文协议」,能够实现一次构建,让AI深度集成。

MCP是一个开放协议,它标准化了应用程序向LLM提供上下文的方式。你可以把MCP比作AI应用的USB-C接口——就像USB-C为设备连接各种外设和配件提供了标准化接口一样,MCP为AI模型连接不同的数据源和工具提供了标准化方法。

它的本质,是为了提供一个「通用接口」,好比AI世界「万能插头」。

凌晨2点,再次Open!奥特曼宣布:OpenAI正式支持对手MCP协议

也就是所说,不同AI模型/应用能够轻松连接到外部资源。这种标准化可以降低开发者的集成成本,同时提升了AI上下文感知力。

Agents SDK是前段时间,OpenAI为开发者准备的「工具箱」,用来打造自己干活的AI智能体,比如写邮件、整理数据。

现在这两者一拍即合,意味着什么?

OpenAI员工用ChatGPT绘制吉卜力风格跟踪仪表板

开发者可用Agents SDK,直接通过MCP调取各种外部数据、工具,让AI能够变得更聪明、更实用。

而这仅仅是个开始,奥特曼透露的未来两个令人期待的计划,将进一步加速AI工作流。

如果ChatGPT客户端也能用上MCP,就会化身为超级私人助理,去年11月每个人从Claude演示中能够获得关键一瞥。

对于开发者来说,MCP加入OpenAI API,未来可以用更少代码,干更多的事儿。

下一代AI工作流,说不定就从这儿起飞了。

参考资料:

https://techcrunch.com/2025/03/26/openai-adopts-rival-anthropics-standard-for-connecting-ai-models-to-data/

https://x.com/sama/status/1904957253456941061

https://huggingface.co/blog/Kseniase/mcp

内容来源于网络。发布者:科技网btna,转转请注明出处:https://www.btna.cn/5603.html

(0)
科技网btna的头像科技网btna
上一篇 2025年4月25日 下午3:05
下一篇 2025年4月25日 下午3:06

相关推荐

  • 新·摩尔定律诞生:AI智能体能力每4个月翻一番!智能爆炸在即

    编辑:英智 犀牛 【导读】AI编程智能体的能力正在飞速增长,最新研究揭示了这一「新摩尔定律」,如果AI智能体的任务时长继续以每4个月翻倍的速度增长,到2027年它们可能完成长达167小时的月级任务! 编程智能体能完成的任务量,正以爆炸式的速度增长! 而且,这一趋势还在加速。 2024到2025年,它们的任务处理能力每4个月翻一倍;而在2019到2025年,这…

    2025年4月30日
    6600
  • 超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

    编辑:Aeneas KingHZ 【导读】超越DeepSeek-R1的英伟达开源新王Llama-Nemotron,是怎么训练出来的?刚刚放出的论文,把一切细节毫无保留地全部揭秘了! 现在,英伟达Llama-Nemotron系列模型,正式超越DeepSeek-R1! 而且,这些模型已经全部开源了。 换句话说,在推理吞吐量和内存效率上显着超越DeepSeek-R…

    2025年5月6日
    7100
  • Transformer原作打脸DeepSeek观点?一句Wait就能引发反思,RL都不用

    编辑:KingHZ 【导读】Transformer作者Ashish Vaswani团队重磅LLM研究!简单指令:「Wait,」就能有效激发LLM显式反思,表现堪比直接告知模型存在错误。 只要预训练,LLM就能涌现自我反思、自我纠正! Transformer首席作者Ashish Vaswani带队的新研究引来万人围观! 强化学习已证明能有效激发大语言模型的反思…

    2025年4月23日
    6400
  • 选AI比选对象还难!起名黑洞OpenAI的新模型,到底怎么选?

    编辑:犀牛 好困 【导读】一句话看懂:o3以深度推理与工具调用能力领跑复杂任务,GPT-4.1超长上下文与精准指令执行适合API开发,而o4-mini则堪称日常任务的「性价比之王」。 如果你最近关注AI新闻,可能会被各种层出不穷的新模型搞的眼花缭乱。 尤其是堪称「起名黑洞」的OpenAI,命起名来可谓是是毫无章法。 即便是AI圈的资深团队,在面对同时发布的o…

    2025年4月21日
    12600
  • 手机行业今年进入7000mAh时代 甚至有8K+80W方案

    近期,有数码博主透露,手机行业正加速进入7000mAh电池时代。据CNMO了解,手机厂商通过电池材料革新与快充技术升级,推动续航体验跨越式发展。这一趋势标志着继2024年6000mAh普及后,智能手机电池容量再度迎来爆发。 7000mAh手机电池 目前来看,电池容量的跃升主要得益于硅碳负极材料的广泛应用。2023年起,硅碳电极含硅量突破6%,解决了传统石墨负…

    2025年3月14日
    29300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信