OpenAI最近放出了一波重磅更新,直接把AI圈搅了个天翻地覆。重点来了:GPT-4.1三款全新模型横空出世,分别是标准版GPT-4.1、精简版4.1 mini,还有迷你款4.1 nano,全部只通过API提供服务。这三位选手不但扩展了上下文处理范围,最多支持一百万个tokens,还在编程准确性、响应速度和成本控制方面全面升级,直逼效率巅峰。 在众多提升中,4.1主力版本在软件工程测试和长文本逻辑推理上,表现比GPT-4o还要硬核。虽然在处理超长文本时略显疲态,但整体依然亮眼。轻量级选手如4.1 mini更是价格杀疯了,比GPT-4o便宜83%,堪称性价比之王。现在通过Windsurf平台,开发者还能限时免费体验一把,简直不要太香。 另一边,OpenAI宣布将于七月前“退役”计算资源大户GPT-4.5,转而押宝更具可扩展性的模型阵容。而关于令人头秃的模型命名问题,CEO山姆·奥特曼亲自下场发推,承诺夏天前解决这“命名乱象”,顺带自嘲一波,网友表示这波幽默很加分。 此外,ChatGPT也迎来视觉类功能大升级——全新“图像库”标签正式上线,用户可以在网格视图中浏览和管理生成的图片。无论是iOS端还是网页版,免费、Plus或Pro用户通通能用,还贴心配备了快捷入口,想生成新内容?点一下就行,体验感直接拉满。
Author: aitrendtrackers@rengongzhineng.io
OpenAI 最新发布的 GPT-4.1 系列在 API 中正式上线
OpenAI 最新发布的 GPT-4.1 系列在 API 中正式上线!这次不只是模型升级,还带来了三个不同版本:GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano。整体性能全面超越 GPT-4o 系列,无论是写代码、听指令还是处理超长上下文,都有质的飞跃。 这批新模型最高支持 100 万个 token 的超长上下文理解,知识库也同步更新到了 2024 年 6 月,堪称最聪明的“记忆王”。在权威测试中表现亮眼,例如在 SWE-bench Verified 编程测试中,GPT-4.1 的完成率高达 54.6%,碾压 GPT-4o 和 GPT-4.5。 不仅如此,GPT-4.1 在指令执行方面也表现出色,在 Scale 的 MultiChallenge 测试中拿下了 38.3% 的高分,提升明显。而在理解无字幕长视频的 Video-MME 测试中更是一骑绝尘,得分 72%,再次刷新记录。 别看 mini 和 nano 版本体积小,实力可不含糊。GPT-4.1 mini 不仅在许多测试中击败了 GPT-4o,延迟还减半,费用省了 83%。至于 GPT-4.1 nano,它是迄今为止最快、最便宜的模型,专为高效处理分类和自动补全等任务而生,堪称“性价比天花板”。 在真实应用场景中,比如 Windsurf 和 Qodo…
谷歌的AI视频生成工具 Veo 2 正式开始在美国地区上线
谷歌的AI视频生成工具 Veo 2 正式开始在美国地区上线,走的是与OpenAI的 Sora 同场竞技的路线。这个新版本目前通过 Google AI Studio 向部分用户逐步开放。 在不久前的 Cloud Next 活动上,谷歌宣布 Veo 2 已进入“量产准备”阶段。而现在,包括 BleepingComputer 在内的一些用户已抢先获得试用权限,不过当前仅限美国地区。 Veo 2 能根据用户输入的指令生成动画视频,无论是简单的短语,还是结构复杂的文本描述,它都能理解并执行。一位早期测试者就用自己的草图让 Veo 2 生成了一段动画,画面流畅度和表现效果都“到位”。 目前,Veo 2 生成的视频最高支持 720p 分辨率,帧率为24fps,而且每段视频长度被限制在 8秒以内。生成成本也已公开:每秒收费0.35美元。 虽然功能已经开放,但 Google 还没全面铺开。如果你人在美国,可以直接在 AI Studio 看到 Veo 2 的开关;如果你不在美国,那就需要“科学上网”才可能看见这个新功能。 另外,有消息称,未来 Veo 2 的功能会整合进 Gemini 模型系统,但具体上线时间谷歌尚未公布。短期内想尝鲜的话,只能通过 AI Studio 单独体验。
在一场关于AI霸主地位的较量中,谷歌已经毫无悬念地登顶
在一场关于AI霸主地位的较量中,谷歌已经毫无悬念地登顶。曾经被戏称为“稳得有点慢”的Google DeepMind,现在正在用实际表现狠狠打脸质疑者。 文章作者一开头就坦白,尽管曾对OpenAI看好,但内心一直更偏爱DeepMind。理由?创始人Demis Hassabis身上有种科学家的可靠感,而不是商人的精明。更别提AlphaGo和AlphaZero留下的经典时刻,那些AI高光时刻是很多AI爱好者情感的起点。相比之下,ChatGPT虽然酷炫,却没能留下那种“第37手”的传奇。 不过谷歌曾一度浪费了手上的好牌。拥有技术、资金、人才、声誉甚至信念,却因担心影响搜索广告主业,选择了保守路线,眼睁睁看着ChatGPT爆红。但作者指出,那次“犹豫不决”是谷歌最后一次失误。如今,Google DeepMind不仅赢回了场面,简直是在AI战场上“赢到发烫”。 Gemini 2.5 Pro:全面碾压 Gemini 2.5 Pro在各种主流与内部基准测试中都名列前茅,不论是LMArena、GPQA Diamond、人类终极考试还是AIME数学竞赛,它都稳居榜首。甚至在像Pokemon这类更偏向代理智能的领域里,它也表现优异,逐步攀升Minecraft Bench等测试榜单。 更关键的是,不只是评分高,用户反馈也一致称赞它是目前最强模型。而且它不仅强,还便宜、速度快,免费开放使用,支持100万Token的超长上下文窗口(仅最近被Meta的Llama 4超越)。再加上与整个Google产品生态无缝集成,杀伤力直接拉满。 Gemini 2.5 Flash 与 Gemma 3:速度与开源并进 Flash系列定位于轻量快速版本,便宜到连以性价比著称的DeepSeek都难以匹敌,非常适合嵌入手机和边缘设备。而Gemma 3作为开源模型,也追平Llama 4和DeepSeek-V3,展现了Google在开源领域的实力。 分析图表显示,在性能和成本两个维度上,Google几乎掌控了整个“帕累托前沿”。高性能模型不贵,便宜模型也强,简直是“横着打”。 生成式AI全家桶也统治级别 除了语言模型,谷歌在其他生成式AI领域也几乎称霸:Lyria做音乐、Imagen 3画图、Veo 2做视频、Chirp 3处理语音,每一个都属于业界一线水准。这些产品正在整合进Google的Vertex AI平台,统一形成超级AI武器库。 而在智能体(agents)方面,Gemini 2.5 Pro在“深度研究”模式下击败了OpenAI的同类产品,同时Google也在推进两个重量级项目:Project Astra(语音助手)和Project Mariner(电脑交互)。此外,还有与Model Context Protocol兼容的Agent2Agent协议,听取社区反馈后打造的智能体互通框架,可谓“全方位出击”。 硬件、云服务、手机,全面碾压 Google还是全球头部云服务商之一,不仅提供芯片给Anthropic,还和Nvidia深度合作。而OpenAI要靠微软Azure,Anthropic则依赖亚马逊AWS。在云市场这场“巨头对巨头”的战役中,谷歌用右臂参战。 左臂干嘛的?当然是搞芯片。谷歌刚发布了第七代TPU芯片Ironwood,专为推理任务打造,目标直指Nvidia Blackwell。而谷歌收入来源分散,即便芯片卖得不如预期,也无伤大局。 还有手机。Pixel 9已经集成Gemini,支持屏幕共享、镜头控制等AI特性。反观苹果还在“AI是不是真的有用”这类哲学问题里打转,OpenAI则在探索“用户能不能放弃手机”这类玄学命题。 最后总结:谷歌全线领先 谷歌不仅是AI巨头,更是软件巨头、云服务巨头、硬件巨头、甚至手机厂商。七大产品(月活用户超20亿)遍布全球,而当这些产品全面接入Gemini,全球数十亿用户将直接用上“世界最强AI”——而且是免费的。 OpenAI和Anthropic?曾经的黑马如今看起来只是因为谷歌一度失误才有机会登场。而现在的谷歌,几乎找不出哪个方向不在“赢麻了”。整个AI圈正在重新定义“王者归来”,主角毫无疑问,是Google + DeepMind。
MCP的另一面
一份超硬核的技术文章最近在开发圈里刷了屏,主角是「模型上下文协议」(Model Context Protocol,简称MCP)。这玩意儿近几周迅速从“有点酷”的新概念,变成了连接第三方工具和大语言模型聊天助手的“事实标准”。不过别只看表面风光,MCP的坑可真不少。 文章作者一边是MCP的铁杆粉丝,一边又忍不住吐槽它的种种“缺陷”。全文从多个角度梳理了MCP的问题,包括协议安全性、用户体验、语言模型的信任风险、数据访问控制混乱,以及对LLM能力的过高期待。 简单来说,MCP是让各种聊天助手(比如Claude、ChatGPT、Cursor等)能外挂不同插件、连接各种数据源的通用桥梁。用户只需一句话,比如“帮我查一下论文有没有漏掉引用,再把灯变成绿色表示搞定”,就能让三个不同的MCP服务器协同作业,完成这个复杂任务。 看起来高效又聪明,但问题也不少: 第一坑:安全问题 协议早期压根没定义身份验证,后来匆忙补上也引来一堆争议。更离谱的是,很多MCP工具需要用户下载并运行代码,万一是恶意代码直接本地沦陷。另外,工具默认信任输入,甚至直接执行代码,导致中招风险飙升。 第二坑:用户体验差 MCP虽然对LLM友好,但对人类不太友好。比如协议没考虑工具风险等级——有的能订机票,有的能删文件,万一不小心“连点确认”,度假照就全没了。更别说还没有流量成本控制,结果就是传一堆大文本内容,每次响应都烧钱。协议也只支持非结构化文本输出,复杂交互场景(比如打Uber或发动态)根本搞不定。 第三坑:LLM信任危机 MCP进一步加大了提示注入(Prompt Injection)的风险。工具有时能篡改系统指令,甚至还可以“换皮骗点击”。更高级的黑招包括把敏感文件内容传给第三方,或者通过工具名称伪装成官方接口。只要用户稍不注意,数据泄漏不是梦。 第四坑:权限幻觉 许多公司以为“员工能看什么,AI助手就能看什么”,但事实远没那么简单。AI聚合数据的能力太强,结果可能让员工获得一些“技术上可以,但不该有”的敏感信息。比如根据公开消息推测公司财务、识别匿名反馈人、计算预期营收等操作,都是灰色地带。 第五坑:LLM自身不靠谱 MCP的好用前提是LLM能稳定、准确地使用这些工具,但现实是,不少模型连简单任务都完成不了。即使工具接好了,LLM可能因为提示太长反而性能下滑。不同模型对工具描述方式的偏好也不一样,开发者根本抓狂。 总结来看,MCP的初衷很美好,让AI助手更强大、更自由地使用各种数据和服务。但现实是,协议、应用和用户都得一起努力,才能避免“神操作变事故现场”。设计好协议路径、开发者做好防坑提醒、用户增强风险意识,才是未来MCP生态健康成长的关键。
Ilya Sutskever主导的AI新创公司Safe Superintelligence公司估值飙升至320亿美元
据《金融时报》爆料,由OpenAI联合创始人、前首席科学家Ilya Sutskever主导的AI新创公司Safe Superintelligence(简称SSI),最新一轮融资金额高达20亿美元,公司估值飙升至320亿美元。 这家神秘感十足的AI初创企业,早前已经低调拿下10亿美元资金,还一度传出另一笔同等规模的融资正在酝酿中。尽管SSI方面对这笔新融资保持沉默,但据称此次融资由Greenoaks领投。 话说Sutskever自2024年5月从OpenAI“体面”离场之后,就一头扎进了这家新公司。据说他当时在一场未遂的“宫斗”中疑似参与逼宫现任CEO Sam Altman,风波过后干脆拉上Daniel Gross和Daniel Levy一同创业。 SSI的理念简单粗暴:目标只有一个,产品也只做一个——“安全的超级智能”。这听起来像是科幻片设定,但团队看起来玩得很认真。 至于这个“安全超智”产品现在到底进展如何?没人知道。SSI官网目前也只是一个极简主义风格的页面,上面只写着一段“使命宣言”,不禁让人好奇背后到底藏着什么秘密大招。
谷歌Agent Development Kit
智能体开发不再是未来主义幻想,谷歌用Agent Development Kit(ADK)把它打造成了“上手即用”的现实利器。打造像天气助手那样的AI智能体只是第一步,真正将它们推向用户,还得经历评估、调试、部署等一系列关键操作——ADK正是为这些“最后一公里”问题提供完整解决方案的“幕后英雄”。 from google.adk.agents import LlmAgent from google.adk.tools import google_Search dice_agent = LlmAgent( model=”gemini-2.0-flash-exp”, # Required: Specify the LLM name=”question_answer_agent”, # Requdired: Unique agent name description=”A helpful assistant agent that can answer questions.”, instruction=”””Respond to the query using google search”””, tools=[google_search], # Provide an instance of the tool ) # you can run this…
OpenAI即将上线新一代重磅选手——GPT-4.1
OpenAI即将上线新一代重磅选手——GPT-4.1,准备给AI圈再来一波“容量爆炸”的冲击。根据最新曝出的内部信息,这次更新不只是简单迭代,而是多管齐下,直接把模型能力和用户体验拉到一个新高度。 核心亮点是GPT-4.1将在GPT-4o的基础上全面增强,并推出多个缩小版变体,如o4-mini、o4-mini-high以及nano级别的小型模型,覆盖不同设备和算力需求。同时,ChatGPT系统内部已经悄悄出现了名为“o3”和“o4-mini”的紧凑模型。虽然CEO Sam Altman强调这些版本“暂时还不上线”,但技术架构已经准备就绪,眼看就要“放虎出笼”。 还有个极其炸裂的细节是:GPT-4.1可能会搭载代号“quasar alpha”的新型上下文窗口——传说中能处理多达100万tokens的信息量。用网友的话说,这简直不是“记忆增强”,而是“AI直接变图书馆”。 与此同时,ChatGPT的记忆功能也大升级:现在能全盘调取过去所有聊天记录,不需要任何提示词就能识别用户偏好、兴趣和语气风格,实现“AI像认识你多年”的效果。OpenAI研究员Noam Brown甚至称,这不仅是功能升级,更是“人机交互的革命性转折点”。 OpenAI官方也在X平台发声:“从今天起,ChatGPT的记忆功能将引用所有过往对话,提供更懂你、更贴心的回应,写作、学习、提建议统统更给力。” 除了模型升级和记忆强化,OpenAI还顺势推出了“Pioneers Program”,联合初创公司共同制定AI领域的专业评测标准,涵盖法律、金融、医疗等多个垂类。这些评估工具将用于微调和优化模型表现,并最终公开发布。不过,也有批评者指出:OpenAI既做选手又当裁判,这种“自评式进步”可能引发公正性争议。 这一切的背后,还有一场“AI宫斗剧”在悄然上演——OpenAI正与Elon Musk打得火热,双方互诉互咬,争夺AI话语权。而OpenAI一边打官司,一边推进高达400亿美元的融资,并准备转型为“有限盈利模式”公司,显然是要在AI界彻底“封神”。 一句话总结:GPT-4.1不是简单更新,而是OpenAI在AI竞赛中的“王炸”牌,配合记忆系统和新评测计划,这波组合拳不仅卷技术,更卷体验、卷规则。谁说AI不懂你?它现在真的可能全记得住了。
谷歌最近放出大招——推出全新“Agent Development Kit(简称ADK)
谷歌最近放出大招——推出全新“Agent Development Kit(简称ADK)”,让企业可以闪电般地开发、部署AI智能体,还不需要重写一堆代码。说白了,就是把打造AI小助手这件事,从“程序员专属”变成了“人人可上手”的操作。 在AI智能体生态越发火爆的当下,各家厂商都在抢占这个风口,谷歌自然也不落人后。官方透露,ADK不仅简化了基于Gemini模型的多智能体系统开发流程,还能让用户在不到100行代码内“整出一个能聊天、会思考的AI”。 这个工具包亮点满满:支持与Anthropic开发的数据传输协议MCP,能实现标准化的数据流通;提供一堆开箱即用的智能体模版和开发工具;还能让用户直接部署到Kubernetes或谷歌自家的Vertex AI平台。 除了ADK,谷歌还同步上线了“Agent Engine”——一个超强管控的智能体运行平台。从概念验证、训练,到最后上线运营,全流程打通。这个平台不仅能自动扩容、保证安全,还能实时监控AI的表现,避免它们“跑偏”。 而且,无论是记忆力强的智能体,还是只记得短期信息的小助手,Agent Engine都能自定义——谁的信息能记多久,记多少,全由开发者说了算。 为了解决企业最关心的安全问题,谷歌也做了不少防护措施:内容筛选、禁止话题、权限分级、敏感数据访问控制、自动监控行为……一套组合拳打下来,基本把“AI胡说八道”的风险压到最低。 另外还有一个“Agent Garden”功能,类似“模型花园”的智能体版本,里面收录了一批现成的AI角色模板和工具,企业想建什么样的AI,都能直接拿来套用,省时省力。 这波更新,也直接把谷歌拉进了“AI智能体平台大战”的第一梯队。面对OpenAI的Agents SDK、亚马逊的Bedrock智能体平台,还有Emergence AI那种“随叫随造”的智能体生成器,谷歌得用Gemini模型和Vertex AI整合能力打出差异化。 一句话总结:谷歌的ADK是企业打造AI助手的“万能搭子”,从零开发到上线落地,一条龙全包。未来谁能在这场AI智能体军备赛中胜出,就看谁的工具更好用、更安全、更聪明。
OpenAI最近推出的ChatGPT更新简直像给AI打了“记忆芯片”
OpenAI最近推出的ChatGPT更新简直像给AI打了“记忆芯片”——不仅能在对话中调用过往记录,还能跨越平台上的各种模式,提供更个性化、更贴切的回应。这项“升级版记忆力”目前只开放给ChatGPT Plus和Pro用户,至于Enterprise、Team和Edu版本的用户,还得稍等一阵才能体验。 其实早在去年2月,OpenAI就悄悄给ChatGPT加了“记忆功能”,目标是让用户和AI的互动更顺畅。这在大型语言模型(LLM)和各类聊天平台上已经逐渐成为标配,比如Gemini 2.0的“闪电记忆”就早早登场,A-Mem等架构也在挑战更复杂的上下文处理。 如今,ChatGPT的记忆功能更进一步,变得“主动”了。OpenAI表示,这次更新后,AI会更自然地“沿着之前的聊天内容接着聊”,逐渐把互动变成一种有温度的长期陪伴。 用户可通过两种设置掌控记忆功能:一种是“记住用户提供的信息”,像是名字、兴趣偏好等,这部分需要用户主动告诉ChatGPT保存;另一种是“参考聊天历史”,也就是ChatGPT会从过往的对话中提取上下文信息,比如语气、目标、爱好等,但这些不会像第一种那样显示在设置里。 用户可以根据需求自由切换设置,开启全部、部分或完全关闭,甚至还能直接询问AI“你记得我什么?”或者开启“无记忆聊天模式”来一场完全“空白”的对话体验。 虽然这个功能带来极大便利,不少人却对AI的“超强记忆力”感到一丝不安。AI投资人Allie K. Miller就在X平台上感叹:“这相当于ChatGPT全天候在‘偷听’,不管你有没有叫它记住,它都在默默收集。”她还表示,在平台功能越来越趋同的今天,真正拉开差距的关键就是“记忆+个性化”,AI的记忆就是平台的护城河。 不过,也有人选择“围墙种草”,拒绝让AI记太多。宾大沃顿商学院的知名AI评论员Ethan Mollick坦言,虽然长期记忆有它的价值,但他个人并不想自己的办公AI因为几次“灵魂发问”就开始带情绪输出。他认为“边界感”才是AI使用中的关键。 甚至OpenAI自家联合创始人Andrej Karpathy都调侃自己担心ChatGPT会因为“7个月前问了个菜鸟问题”就对他“另眼相看”。 总的来说,ChatGPT的记忆能力堪比“AI大脑升维”,但是否让它“记住过去”,还是得看用户自己想不想被“读心”。这波更新,既是AI亲民的一大步,也是一场数字隐私的新考验。