一份超硬核的技术文章最近在开发圈里刷了屏,主角是「模型上下文协议」(Model Context Protocol,简称MCP)。这玩意儿近几周迅速从“有点酷”的新概念,变成了连接第三方工具和大语言模型聊天助手的“事实标准”。不过别只看表面风光,MCP的坑可真不少。 文章作者一边是MCP的铁杆粉丝,一边又忍不住吐槽它的种种“缺陷”。全文从多个角度梳理了MCP的问题,包括协议安全性、用户体验、语言模型的信任风险、数据访问控制混乱,以及对LLM能力的过高期待。 简单来说,MCP是让各种聊天助手(比如Claude、ChatGPT、Cursor等)能外挂不同插件、连接各种数据源的通用桥梁。用户只需一句话,比如“帮我查一下论文有没有漏掉引用,再把灯变成绿色表示搞定”,就能让三个不同的MCP服务器协同作业,完成这个复杂任务。 看起来高效又聪明,但问题也不少: 第一坑:安全问题 协议早期压根没定义身份验证,后来匆忙补上也引来一堆争议。更离谱的是,很多MCP工具需要用户下载并运行代码,万一是恶意代码直接本地沦陷。另外,工具默认信任输入,甚至直接执行代码,导致中招风险飙升。 第二坑:用户体验差 MCP虽然对LLM友好,但对人类不太友好。比如协议没考虑工具风险等级——有的能订机票,有的能删文件,万一不小心“连点确认”,度假照就全没了。更别说还没有流量成本控制,结果就是传一堆大文本内容,每次响应都烧钱。协议也只支持非结构化文本输出,复杂交互场景(比如打Uber或发动态)根本搞不定。 第三坑:LLM信任危机 MCP进一步加大了提示注入(Prompt Injection)的风险。工具有时能篡改系统指令,甚至还可以“换皮骗点击”。更高级的黑招包括把敏感文件内容传给第三方,或者通过工具名称伪装成官方接口。只要用户稍不注意,数据泄漏不是梦。 第四坑:权限幻觉 许多公司以为“员工能看什么,AI助手就能看什么”,但事实远没那么简单。AI聚合数据的能力太强,结果可能让员工获得一些“技术上可以,但不该有”的敏感信息。比如根据公开消息推测公司财务、识别匿名反馈人、计算预期营收等操作,都是灰色地带。 第五坑:LLM自身不靠谱 MCP的好用前提是LLM能稳定、准确地使用这些工具,但现实是,不少模型连简单任务都完成不了。即使工具接好了,LLM可能因为提示太长反而性能下滑。不同模型对工具描述方式的偏好也不一样,开发者根本抓狂。 总结来看,MCP的初衷很美好,让AI助手更强大、更自由地使用各种数据和服务。但现实是,协议、应用和用户都得一起努力,才能避免“神操作变事故现场”。设计好协议路径、开发者做好防坑提醒、用户增强风险意识,才是未来MCP生态健康成长的关键。
Ilya Sutskever主导的AI新创公司Safe Superintelligence公司估值飙升至320亿美元
据《金融时报》爆料,由OpenAI联合创始人、前首席科学家Ilya Sutskever主导的AI新创公司Safe Superintelligence(简称SSI),最新一轮融资金额高达20亿美元,公司估值飙升至320亿美元。 这家神秘感十足的AI初创企业,早前已经低调拿下10亿美元资金,还一度传出另一笔同等规模的融资正在酝酿中。尽管SSI方面对这笔新融资保持沉默,但据称此次融资由Greenoaks领投。 话说Sutskever自2024年5月从OpenAI“体面”离场之后,就一头扎进了这家新公司。据说他当时在一场未遂的“宫斗”中疑似参与逼宫现任CEO Sam Altman,风波过后干脆拉上Daniel Gross和Daniel Levy一同创业。 SSI的理念简单粗暴:目标只有一个,产品也只做一个——“安全的超级智能”。这听起来像是科幻片设定,但团队看起来玩得很认真。 至于这个“安全超智”产品现在到底进展如何?没人知道。SSI官网目前也只是一个极简主义风格的页面,上面只写着一段“使命宣言”,不禁让人好奇背后到底藏着什么秘密大招。
谷歌Agent Development Kit
智能体开发不再是未来主义幻想,谷歌用Agent Development Kit(ADK)把它打造成了“上手即用”的现实利器。打造像天气助手那样的AI智能体只是第一步,真正将它们推向用户,还得经历评估、调试、部署等一系列关键操作——ADK正是为这些“最后一公里”问题提供完整解决方案的“幕后英雄”。 from google.adk.agents import LlmAgent from google.adk.tools import google_Search dice_agent = LlmAgent( model=”gemini-2.0-flash-exp”, # Required: Specify the LLM name=”question_answer_agent”, # Requdired: Unique agent name description=”A helpful assistant agent that can answer questions.”, instruction=”””Respond to the query using google search”””, tools=[google_search], # Provide an instance of the tool ) # you can run this…
OpenAI即将上线新一代重磅选手——GPT-4.1
OpenAI即将上线新一代重磅选手——GPT-4.1,准备给AI圈再来一波“容量爆炸”的冲击。根据最新曝出的内部信息,这次更新不只是简单迭代,而是多管齐下,直接把模型能力和用户体验拉到一个新高度。 核心亮点是GPT-4.1将在GPT-4o的基础上全面增强,并推出多个缩小版变体,如o4-mini、o4-mini-high以及nano级别的小型模型,覆盖不同设备和算力需求。同时,ChatGPT系统内部已经悄悄出现了名为“o3”和“o4-mini”的紧凑模型。虽然CEO Sam Altman强调这些版本“暂时还不上线”,但技术架构已经准备就绪,眼看就要“放虎出笼”。 还有个极其炸裂的细节是:GPT-4.1可能会搭载代号“quasar alpha”的新型上下文窗口——传说中能处理多达100万tokens的信息量。用网友的话说,这简直不是“记忆增强”,而是“AI直接变图书馆”。 与此同时,ChatGPT的记忆功能也大升级:现在能全盘调取过去所有聊天记录,不需要任何提示词就能识别用户偏好、兴趣和语气风格,实现“AI像认识你多年”的效果。OpenAI研究员Noam Brown甚至称,这不仅是功能升级,更是“人机交互的革命性转折点”。 OpenAI官方也在X平台发声:“从今天起,ChatGPT的记忆功能将引用所有过往对话,提供更懂你、更贴心的回应,写作、学习、提建议统统更给力。” 除了模型升级和记忆强化,OpenAI还顺势推出了“Pioneers Program”,联合初创公司共同制定AI领域的专业评测标准,涵盖法律、金融、医疗等多个垂类。这些评估工具将用于微调和优化模型表现,并最终公开发布。不过,也有批评者指出:OpenAI既做选手又当裁判,这种“自评式进步”可能引发公正性争议。 这一切的背后,还有一场“AI宫斗剧”在悄然上演——OpenAI正与Elon Musk打得火热,双方互诉互咬,争夺AI话语权。而OpenAI一边打官司,一边推进高达400亿美元的融资,并准备转型为“有限盈利模式”公司,显然是要在AI界彻底“封神”。 一句话总结:GPT-4.1不是简单更新,而是OpenAI在AI竞赛中的“王炸”牌,配合记忆系统和新评测计划,这波组合拳不仅卷技术,更卷体验、卷规则。谁说AI不懂你?它现在真的可能全记得住了。
谷歌最近放出大招——推出全新“Agent Development Kit(简称ADK)
谷歌最近放出大招——推出全新“Agent Development Kit(简称ADK)”,让企业可以闪电般地开发、部署AI智能体,还不需要重写一堆代码。说白了,就是把打造AI小助手这件事,从“程序员专属”变成了“人人可上手”的操作。 在AI智能体生态越发火爆的当下,各家厂商都在抢占这个风口,谷歌自然也不落人后。官方透露,ADK不仅简化了基于Gemini模型的多智能体系统开发流程,还能让用户在不到100行代码内“整出一个能聊天、会思考的AI”。 这个工具包亮点满满:支持与Anthropic开发的数据传输协议MCP,能实现标准化的数据流通;提供一堆开箱即用的智能体模版和开发工具;还能让用户直接部署到Kubernetes或谷歌自家的Vertex AI平台。 除了ADK,谷歌还同步上线了“Agent Engine”——一个超强管控的智能体运行平台。从概念验证、训练,到最后上线运营,全流程打通。这个平台不仅能自动扩容、保证安全,还能实时监控AI的表现,避免它们“跑偏”。 而且,无论是记忆力强的智能体,还是只记得短期信息的小助手,Agent Engine都能自定义——谁的信息能记多久,记多少,全由开发者说了算。 为了解决企业最关心的安全问题,谷歌也做了不少防护措施:内容筛选、禁止话题、权限分级、敏感数据访问控制、自动监控行为……一套组合拳打下来,基本把“AI胡说八道”的风险压到最低。 另外还有一个“Agent Garden”功能,类似“模型花园”的智能体版本,里面收录了一批现成的AI角色模板和工具,企业想建什么样的AI,都能直接拿来套用,省时省力。 这波更新,也直接把谷歌拉进了“AI智能体平台大战”的第一梯队。面对OpenAI的Agents SDK、亚马逊的Bedrock智能体平台,还有Emergence AI那种“随叫随造”的智能体生成器,谷歌得用Gemini模型和Vertex AI整合能力打出差异化。 一句话总结:谷歌的ADK是企业打造AI助手的“万能搭子”,从零开发到上线落地,一条龙全包。未来谁能在这场AI智能体军备赛中胜出,就看谁的工具更好用、更安全、更聪明。
OpenAI最近推出的ChatGPT更新简直像给AI打了“记忆芯片”
OpenAI最近推出的ChatGPT更新简直像给AI打了“记忆芯片”——不仅能在对话中调用过往记录,还能跨越平台上的各种模式,提供更个性化、更贴切的回应。这项“升级版记忆力”目前只开放给ChatGPT Plus和Pro用户,至于Enterprise、Team和Edu版本的用户,还得稍等一阵才能体验。 其实早在去年2月,OpenAI就悄悄给ChatGPT加了“记忆功能”,目标是让用户和AI的互动更顺畅。这在大型语言模型(LLM)和各类聊天平台上已经逐渐成为标配,比如Gemini 2.0的“闪电记忆”就早早登场,A-Mem等架构也在挑战更复杂的上下文处理。 如今,ChatGPT的记忆功能更进一步,变得“主动”了。OpenAI表示,这次更新后,AI会更自然地“沿着之前的聊天内容接着聊”,逐渐把互动变成一种有温度的长期陪伴。 用户可通过两种设置掌控记忆功能:一种是“记住用户提供的信息”,像是名字、兴趣偏好等,这部分需要用户主动告诉ChatGPT保存;另一种是“参考聊天历史”,也就是ChatGPT会从过往的对话中提取上下文信息,比如语气、目标、爱好等,但这些不会像第一种那样显示在设置里。 用户可以根据需求自由切换设置,开启全部、部分或完全关闭,甚至还能直接询问AI“你记得我什么?”或者开启“无记忆聊天模式”来一场完全“空白”的对话体验。 虽然这个功能带来极大便利,不少人却对AI的“超强记忆力”感到一丝不安。AI投资人Allie K. Miller就在X平台上感叹:“这相当于ChatGPT全天候在‘偷听’,不管你有没有叫它记住,它都在默默收集。”她还表示,在平台功能越来越趋同的今天,真正拉开差距的关键就是“记忆+个性化”,AI的记忆就是平台的护城河。 不过,也有人选择“围墙种草”,拒绝让AI记太多。宾大沃顿商学院的知名AI评论员Ethan Mollick坦言,虽然长期记忆有它的价值,但他个人并不想自己的办公AI因为几次“灵魂发问”就开始带情绪输出。他认为“边界感”才是AI使用中的关键。 甚至OpenAI自家联合创始人Andrej Karpathy都调侃自己担心ChatGPT会因为“7个月前问了个菜鸟问题”就对他“另眼相看”。 总的来说,ChatGPT的记忆能力堪比“AI大脑升维”,但是否让它“记住过去”,还是得看用户自己想不想被“读心”。这波更新,既是AI亲民的一大步,也是一场数字隐私的新考验。
回看Elon Musk的Twitter收购
当马斯克在2022年以440亿美元买下Twitter时,许多人都以为这是他商业帝国的一次失手。广告主纷纷撤资,公司陷入亏损,甚至一度传出“濒临破产”的传言。但如今,X(前Twitter)不仅挺了过来,还和马斯克的人工智能公司xAI正式合并,估值飙升至1000亿美元以上,完成了一次极具戏剧性的商业逆转。 就在今年1月,摩根士丹利纽约办公室聚集了一批渴望参与X债券交易的投资人——这在几年前几乎是不可想象的。当时银行原计划出售30亿美元债券,结果一口气卖出超100亿美元,溢价还更高。这背后,既有广告商回流的功劳,也有马斯克与特朗普关系日益紧密的“政治加持”。 而最关键的一步,是马斯克决定将X与xAI合并。xAI是他在2023年创立的AI公司,主打产品是对标ChatGPT的Grok聊天机器人。X早前为其提供芯片等基础设施,换来了xAI的25%股份,随后虽然股权被稀释至10%,但这部分持股成了X资产表上最亮眼的“宝藏”。 这场合并的意义不止于财务层面,它还为马斯克的“超级App”梦想铺路——一个能让用户聊天、看新闻、付账单、甚至娱乐的全能平台。未来,Grok将深度集成进X,就像Google把AI功能塞进搜索栏一样,AI和社交体验将全面融合。 当然,这场翻盘之路也伴随着一连串惊险操作:削减成本、清理负债、重建广告关系。X 2023年营收从46亿美元跌至30亿,2024年甚至进一步缩水到26亿。但Q4开始出现回暖迹象。xAI的收入,反过来也支撑了X的现金流,帮它度过了“难熬的冬天”。 马斯克也没闲着——他先是为xAI争取到了数据训练资源,再是逐步将两家公司员工交叉任命,把融合推进到实操阶段。今年3月,X在完成一轮约9亿美元融资后,估值重新回到接近收购初期的水平。 最终,3月28日,马斯克在X平台宣布:“xAI估值800亿美元,X估值330亿(不含债务)。这,仅仅是开始。”至此,这场堪称“商业过山车”的翻盘剧正式落幕,也让曾唱衰这笔交易的人彻底闭嘴。 一句话总结:马斯克用AI,把快要凉透的X重新加热成了资本市场的香饽饽。操作猛如虎,还带着点“总统牌”的玄幻气息。
StackOverflow的AI冲击
随着AI技术持续进化,开发者获取技术支持的方式也悄然发生了转变。曾经风光无限的StackOverflow,如今流量锐减,取而代之的是各种技术博客、教程网站和AI助手。然而,这种变化也引发了不少讨论,尤其是在“AI到底靠不靠谱”这个问题上。 回顾历史,从上世纪50年代靠纸质手册、大学教材,到70年代靠技术期刊、杂志,再到90年代Usenet讨论区的蓬勃兴起,开发者解决问题的方式一直在跟着技术一起“进化”。2008年StackOverflow的出现更是让技术问答进入了“平台时代”——一个账号、一个搜索框,就能直击全球开发者的集体智慧。 而如今,这个曾被誉为“程序员的救命稻草”的平台却逐渐式微。随着ChatGPT-3.5的爆火,越来越多的程序员开始转向AI助手寻求帮助。不论是Copilot、Claude还是其他LLM(大型语言模型),都能快速提供看似“答案感十足”的回应。但问题也随之而来:AI并非万能。 比如作者提到,在一次Hibernate从5.X迁移到6.X的过程中,遇到了PostgreSQL中的jsonb类型报错。AI工具提供的答案不是太泛,就是完全跑题,最后还是靠一篇博客——不是StackOverflow——才找到了问题的关键。这就是AI目前最大的短板:当遇到边缘案例或是最新技术栈时,训练数据的缺口就暴露无遗。 此外,还有“AI常见通病”:信口胡说(也叫“AI幻觉”)、知识时效性差、逻辑不通、偏见输出、无事实验证机制、内容重复不一致……这些都意味着,开发者仍然得动脑、得研究,不能一股脑交给AI“包办代替”。 不过话说回来,AI也并非洪水猛兽。用得好,它确实能大幅提高效率。像代码补全、快速翻译、文档优化、语法润色,这些都是它的强项。只是,遇到真正棘手的问题,还得靠真正懂技术的“人类博主们”分享的经验贴、踩坑总结。 未来的开发知识生态,很可能会从集中式的StackOverflow向分布式的博客、教程、视频讲解转移。AI也许能成为“引路人”,但真正的“实战经验”,还得靠开发者社区一字一句地写出来。毕竟,AI的下一次升级,依赖的也是这些优质内容的“喂养”。 说到底,AI只是工具,驾驶的是人。未来的开发者,得既懂AI又保留独立思考力。知识不是被“复制粘贴”的,而是被理解、被再创造的。这或许就是新时代开发者的最大挑战,也是最大机会。
微软庆祝它成立整整50周年
微软刚刚在公司总部Redmond办了一场超级“复古又未来感”的庆典,庆祝它成立整整50周年。阳光罕见地洒在西北太平洋的天空上,成百上千名员工涌进机库般的大型会场,感受这场科技巨头的半世纪高光回顾与AI时代的未来宣言。 这场活动由演员Brenda Song主持,三位曾执掌微软的CEO齐聚一堂——从1975年的比尔·盖茨,到2000年的史蒂夫·鲍尔默,再到如今的萨提亚·纳德拉,历史级别的同框直接拉满情怀值。三位掌门人轮番上场回忆往昔,而舞台焦点则给足了微软现阶段的明星产品:Copilot。 比尔·盖茨在演讲中感叹,智能将是科技下一个前沿,看完今天的演示,感觉比前50年还要激动人心。而Copilot,正是微软准备开启下一个篇章的“主角”。 庆典现场不仅有Copilot铁粉现身说法,还有一场微软冷知识问答秀,以及CEO轮番坐上“脱口秀”访谈沙发。当然也出现了小插曲:两名员工当场抗议微软向以色列军方出售AI与云服务。 微软这一路走来,从阿尔伯克基的车库起步,到现在转型成云计算和AI领域的领头羊,经历了无数高低起伏。从Windows的统治时代、游戏业务的强势扩张、到与OpenAI的合作伙伴关系,再到反垄断案和移动业务的几次失误,每一步都写进了科技史。 负责消费者业务的微软高管Yusuf Mehdi在现场也透露了Copilot背后的战略思考。他说,这次纪念并不只是怀旧,关键是“向前看”。Copilot代表的是微软未来的方向——AI将成为核心驱动力。 不过,在庆祝大会上一个名字却刻意被忽略:OpenAI。这个曾与微软联手开创AI新时代的初创公司,并没有出现在庆典关键词中。外界猜测,微软如今正在开发自己的基础模型,以逐步摆脱对GPT系列的依赖。 对此,Mehdi回应称,两家公司仍然保持“非常非常强的合作关系”,但确实存在竞争,尤其是在Copilot和ChatGPT之间。不过在Azure云计算平台上的深度合作还在持续推进,OpenAI的成功也被微软视为共同成果。 在消费端,Copilot的最大亮点之一是强调“情绪智能”,这也是微软AI CEO Mustafa Suleyman从其创业公司Inflection带来的DNA。与更偏商务、功能复杂的企业版Copilot不同,消费版设计得更贴近用户、更易上手。 Mehdi还指出,微软在搜索广告领域并没有太多包袱,这反而让他们在Copilot的商业模式探索上更有创新空间,未来还会在广告形式上继续试水。 而从微软50年历史中汲取的最大经验,就是“要打造一个生态系统”。Mehdi说,真正的成功是让更多人能从中受益,不只是用户,还有那些愿意围绕产品开发服务的开发者。“Copilot不只是工具,更是一个平台,微软正在努力打造那个让别人愿意加入的生态。” 一句话总结:五十年走来,微软不仅想要庆祝过去的辉煌,更是要站在AI的新起点上,再续传奇。
Llama 4的争议
Meta旗下的Llama 4模型最近在AI圈内掀起了一阵小风波。特别是在提交定制版Llama 4参加LM Arena评测之后,透明度问题引起了不少质疑。尤其是那款名叫“Llama-4-Maverick-03-26-Experimental”的模型,被曝光是经过偏好微调的,但Meta一开始并没有明说。公司生成式AI副总裁Ahmad Al-Dahle随即出面否认了“人为提高评分”的传闻。 LM Arena随后火速回应,不仅公布了超2000场对战记录,还指出评测中风格和语气对结果产生了较大影响。为了保障公正性,他们同步更新了排行榜规则,强调测试结果必须可复现、可信赖。《Artificial Analysis》也同步调整了旗下“Llama 4智能指数”,对Scout和Maverick两个模型的得分进行了重新修订,纠正了Meta在MMLU Pro和GPQA Diamond测试中的夸张成绩。 从硬实力来看,Llama 4的Maverick和Scout在推理、编程、数学等方面展现出强劲表现,甚至一度领先Claude 3.7和GPT-4o-mini等劲敌。其中,Maverick拿下49分,Scout紧随其后获得36分。不过一旦进入“长文本任务”,这两位选手就有点吃力了——Maverick仅完成了28.1%,而Scout更是只有15.6%。Meta方面则表示,当前模型仍处于持续优化阶段,后续还会有调整。 值得一提的是,NVIDIA也加入了这场性能提升大战,用最新的Blackwell B200 GPU给Llama 4打上“加速器”。借助TensorRT-LLM技术,这批模型现在能以每秒超4万tokens的速度飞奔,处理文档摘要和图文理解时几乎“光速响应”,多模态、多语种能力也不容小觑。 至于ARC Prize方面最新放出的评估数据,Maverick和Scout的表现可就比较“冷静”了——在ARC-AGI测试中,Maverick在第一阶段仅达成4.38%的完成率,第二阶段甚至挂零;Scout的数据则更“保守”,分别为0.5%和0%。成本虽低,效果还得看后续进化。