他们的“研究”功能通过多个 Claude 智能体协作,更高效地探索复杂主题。他们在构建该系统过程中遇到的工程挑战和所汲取的经验将在此分享。 Claude 现具备研究能力,能够跨网络、Google Workspace 及其他集成工具进行搜索,以完成复杂任务。 从原型到生产,他们在多智能体系统的建设历程中学到了系统架构、工具设计与提示工程方面的重要经验。多智能体系统由多个智能体(LLM 自主循环使用工具)协作完成任务。他们的研究功能由一个负责规划研究流程的主智能体触发,根据用户查询生成多个并行子智能体去搜索信息,而多智能体系统给智能体协调、评估与可靠性带来了新的挑战。 本文将拆解他们验证有效的一系列原则,希望对您构建自己的多智能体系统有所启发。 多智能体系统的优势 研究工作涉及开放式问题,难以预先预测所需步骤。研究过程动态、路径相关,无法用硬编码路径来应对。人类研究时会根据新发现不断调整策略,并追踪出现的新线索。 这种不可预测性使得 AI 智能体在研究任务中尤为适合。研究需要在调查过程中灵活转向或发掘次级关联,模型需要自主在多个回合中判断应追踪哪个方向。线性、一次性的处理流程无法胜任这些需求。 搜索的本质是压缩:从海量语料中提炼见解。子智能体通过并行运行、各自拥有上下文窗口,同时探索问题的不同层面,然后将重要信息摘要回主智能体,实现压缩。每个子智能体还实现了关注点分离——使用不同工具、提示和探索路径,减少路径依赖,使调查更加深入且独立。 当智能体组合的智慧达到临界点,多智能体系统能显著扩张性能。例如,虽然个人智慧在人类历史中有所提升,但信息时代的人类社会依靠集体智慧实现了指数级的能力提升。即使是通用智能智能体,作为个体运作能力有限,而一组智能体协作则能实现更高成就。 内部评估显示,多智能体研究系统在涉及多个方向同时探索的“广度优先”查询中,表现尤为出色。他们发现,以 Claude Opus 4 作为主智能体、Claude Sonnet 4 担任子智能体的系统,在内部研究评测中,比单一 Claude Opus 4 智能体表现提升了 90.2%。例如,在查询“识别信息技术板块标普 500 公司全部董事会成员”时,多智能体系统将任务分配给子智能体并行搜索,成功找到答案,而单智能体系统则因必须逐步串行搜索而失败。 多智能体系统能高效执行任务,部分因为它能消耗足够多的 tokens。在 BrowseComp 评测中(测试智能体浏览难找信息能力),三大因素解释了 95% 的性能差异:token 使用量(约占 80%)、工具调用次数与模型选择。这个发现印证了他们的架构设计:分散上下文窗口,增强并行推理能力。最新 Claude 模型作为 token 使用效率的乘数,升级到 Claude Sonnet 4 带来的性能提升比将 Sonnet 3.7 的 token 预算翻倍更显著。多智能体架构可以有效扩展 token 使用,适应超出单一智能体处理能力的任务。 不过也有缺点:这种架构消耗 token 较快。数据显示,单次代理使用 token 约为普通对话的 4 倍,多智能体系统的 token 使用量约为普通对话的 15…
Author: aitrendtrackers@rengongzhineng.io
HP发布首款Google Beam三维视频会议系统,售价高达2.5万美元
在上月的Google I/O大会上,除了受到广泛关注的Gemini系列模型,谷歌还悄然将一个实验项目正式商品化:代号为“Project Starline”的沉浸式视频通信系统,现以“Google Beam”的身份重新登场。如今,谷歌与惠普(HP)联合推出了首款商用设备,名为HP Dimension,售价为24,999美元。 高端硬件驱动真实3D视频体验 Google Beam是一个高度先进的三维视频会议系统,旨在打造“如同面对面交谈”的沉浸式会议体验。HP Dimension采用六个高速摄像头环绕屏幕布置,实时从多个角度捕捉说话者图像。这些视觉数据随后被送入谷歌自研的体积视频模型,将多路图像流合成为一个精准的三维人物重建。 HP Dimension配备65英寸大屏幕,支持光场显示技术(light field technology),无需佩戴任何头显或3D眼镜即可实现真实立体显示。据称,系统可以以每秒60帧的速率呈现细微动作,精度达毫米级别。 不只是炫技:提升会议效率与沟通质量 HP与谷歌声称,Beam系统可大幅提升会议效率。相比传统2D视频通话,3D系统能更清晰地传达非语言信号,如面部表情、肢体语言,从而增强信息记忆力与理解力。 此外,谷歌还计划将基于Google Meet的实时翻译功能引入Beam系统,进一步消除语言壁垒。这对于跨国企业、跨文化团队具有显著价值。 并非人人都能用:对硬件与网络要求极高 尽管技术先进,Google Beam依赖极高的硬件与网络带宽支持。由于三维视频合成处理复杂,Beam系统依赖于云端实时计算以确保低延迟通话体验。意味着除了购买2.5万美元的HP Dimension硬件,用户还必须额外订购Google Beam云服务授权,其具体价格尚未公开。 当前版本的HP Dimension将支持Google Meet与Zoom两大主流会议平台。不过,只有当会议双方都使用Beam硬件时,才能实现真正的3D通话体验。否则,只能进行普通的2D视频通话。 目标用户:企业级市场 考虑到高昂的价格和技术门槛,HP Dimension显然不是为普通消费者设计的,而是面向高端企业客户。谷歌表示,Beam系统将于2025年晚些时候限量发售,初期仅提供给“精选客户”。 目前尚不清楚Google Beam许可的具体费用结构及后续计划,但谷歌和惠普均表示,该系统将在未来扩展更多尺寸和版本,以适应不同企业需求。 小结 HP与谷歌联手打造的Beam三维视频系统,为远程会议带来全新可能,其技术含量之高令人瞩目。但高昂的价格、复杂的部署与使用门槛意味着其短期内主要服务于企业客户,尤其是追求高质量远程协作体验的公司。随着技术成熟和成本下降,Beam或许将在未来几年内成为下一代视频会议的标准配置。
埃隆·马斯克宣布特斯拉Robotaxi自动驾驶出租车服务将于6月22日在奥斯汀“试运行”启动
特斯拉首席执行官埃隆·马斯克(Elon Musk)周二在X平台(前身为Twitter)发文称,特斯拉的Robotaxi自动驾驶出租车服务预计将于6月22日在德克萨斯州奥斯汀“试运行”上线。 马斯克表示,他将从洛杉矶飞往奥斯汀,亲自见证这一项目的启动。当被问及公众乘车何时开放时,马斯克回应称,目前计划在6月22日启动试运行,而首辆完全无人驾驶的特斯拉车辆将在6月28日——他的生日——完成从奥斯汀特斯拉工厂到客户家的首次“点对点”送达任务。 “我们对安全问题保持极度谨慎,因此时间可能会有所变动,”马斯克补充道。 当天早些时候,马斯克还在X上分享了一段特斯拉Robotaxi测试视频。视频中,一辆黑色Model Y SUV搭载“Robotaxi”涂鸦标志,在无人安全员的情况下于奥斯汀街头行驶,成功在十字路口礼让行人过马路。 规模与车型 马斯克在接受CNBC记者David Faber采访时表示,Robotaxi服务将以小规模试点启动,初期投入大约10到20辆搭载“全新无监督版本”的FSD(Full Self-Driving,完全自动驾驶)系统的Model Y车型参与测试。 尽管特斯拉去年在洛杉矶车展上展示了CyberCab未来车型,但此次试点不会使用CyberCab,而是采用现有的Model Y。马斯克指出,服务初期将设置**“地理围栏(geofence)”**,限制Robotaxi在奥斯汀的运营范围,并由员工进行远程实时监控。 多线经营与政治争议 目前,除了掌舵特斯拉,马斯克还同时担任航天公司SpaceX、人工智能企业xAI以及社交平台X的首席执行官。xAI最近已正式与X合并。此外,马斯克还被广泛关注为全球首富,并为支持唐纳德·特朗普重返白宫而投入近3亿美元资金。 他近期结束了一段**“政府效率部”**领导任期,在此期间推动了对多个联邦监管机构的大规模裁撤和精简,影响到包括特斯拉在内的多个企业监管体系。 安全争议与抗议计划 尽管许多特斯拉和马斯克的支持者对Robotaxi试点服务充满期待,但也有不少人表达出对自动驾驶安全的担忧,特别是针对特斯拉现有“Autopilot自动辅助驾驶”与“FSD监督版”系统的批评。 反对派团体如The Dawn Project联合Tesla Takedown与Resist Austin等组织宣布将于6月12日在奥斯汀市中心举行抗议示威,集中揭示特斯拉电动车和驾驶辅助系统中存在的安全隐患。 Dawn Project的发起人丹·奥道(Dan O’Dowd)是软件公司Green Hills Software的CEO,该公司生产的系统被福特、丰田等特斯拉竞争对手广泛使用。奥道曾在接受CNBC采访时将Dawn Project描述为一家专注技术安全与教育的组织。 展望与挑战 尽管Robotaxi项目是特斯拉自动驾驶战略的重要一环,但其能否安全、稳定地规模化扩展,仍面临诸多现实挑战: 小结 特斯拉计划于6月22日在奥斯汀“试运行”Robotaxi服务,标志着自动驾驶商业化迈出关键一步。但正如马斯克所说,“我们非常谨慎,日期可能仍会调整。”从技术突破到社会接受,特斯拉Robotaxi的全面落地仍是一场长期攻坚战。
Lyft如何每天完成1亿次机器学习预测:实时ML推理平台LyftLearn Serving解析
Lyft每天运行着数亿次机器学习预测,这些并非后台批处理任务,而是实时、关键决策型推理,贯穿于平台的方方面面——从价格预测到欺诈识别,从ETA预估到司机激励分配。 每次推理操作都承受着严格的性能压力,响应预算以毫秒计。系统每秒需处理数百万请求,多个工程团队各自推送模型更新,彼此依赖却也需独立。这对平台灵活性与可控性提出了极高要求。 Lyft将实时ML系统的挑战归结为两类: 一、为什么Lyft选择自建推理平台? 早期,Lyft依赖一个共享的单体服务统一托管所有ML模型。虽然最初便于启动,但很快暴露问题: 于是,Lyft决定构建LyftLearn Serving:一个具备高性能、强隔离、面向团队设计的微服务推理平台。 二、系统架构与关键组件 LyftLearn Serving 并未从零重建基础设施,而是在现有微服务架构上演进,融入Kubernetes、Envoy等已有生产组件。每个团队运行自己的一套服务实例,实现部署自主、行为可控、代码独立。 架构流程图核心组成如下: 1. HTTP服务层 每个推理请求首先到达Flask构建的HTTP端点,通过Gunicorn进行高并发管理。其前端由Envoy服务网格处理路由、连接与负载。 优化目标包括: 2. 核心推理库(Core Serving Library) 这是系统逻辑的核心,负责: 此库为所有团队共享,封装基础能力,但允许完全自定义推理逻辑。 3. 自定义推理代码 每个团队需实现以下两个函数: pythonCopyEditdef load(self, file: str) -> Any: # 加载模型对象 … def predict(self, features: Any) -> Any: # 推理逻辑 … 这种设计使团队可自由使用任意模型框架(如TensorFlow、PyTorch、LightGBM、XGBoost等),前提是能通过Python接口加载和预测。 4. 基础设施深度集成 LyftLearn Serving 完全集成Lyft的生产基础设施: 三、“一服务一团队”原则:隔离即稳定 LyftLearn Serving坚持“硬隔离”设计: Kubernetes与Envoy提供运行时资源隔离,保障故障局部化。 四、工具支持:从0到部署无需手动配置 Lyft提供“配置生成器(Config…
Meta发布V-JEPA 2世界模型及物理推理新基准,推动AI在物理世界中的认知与规划能力
Meta正式发布了其最新一代世界模型——V-JEPA 2(Video Joint Embedding Predictive Architecture 2)。这是一个在物理世界视觉理解和预测方面实现最先进性能的大型模型,具备零样本环境下的机器人规划能力,可以让AI代理与陌生物体和未知环境交互,完成复杂任务。此次发布不仅标志着Meta向“高级机器智能(AMI)”目标迈出的关键一步,也带来了三个全新物理推理评测基准,用于全面评估视频模型的物理直觉与因果理解能力。 什么是“世界模型”? 人类拥有与生俱来的物理直觉——比如把网球抛向空中,自然会期待它因重力落下,而不会莫名其妙漂浮、变向或变成苹果。即使在学会完整说话之前,儿童已开始通过观察积累这种“世界如何运行”的基本认知。 这种对世界状态和行为结果的预测能力,是人类在面对新环境、新任务时作出决策的基础。例如在拥挤的人群中行走、在冰球场上滑向未来的球点、或烹饪过程中控制火候,背后都依赖内心的“世界模型”。 对于人工智能来说,构建这样的世界模型意味着系统能够: V-JEPA 2:从视频中学习世界如何运行 V-JEPA 2是一个拥有12亿参数的模型,建立在Meta自研的**Joint Embedding Predictive Architecture(JEPA)**架构上。它由两个关键组件构成: V-JEPA 2通过自监督学习训练而成,无需人工标注,主要分两个阶段: 阶段一:无动作预训练 模型在超过100万小时视频和100万张图像上进行训练,涵盖人类行为、物体运动及物体交互等视觉知识。仅在此阶段,V-JEPA 2就已展现强大的理解与预测能力: 阶段二:引入机器人控制数据 通过接入仅62小时的机器人控制数据,模型进一步学习将具体行动映射至未来状态预测。这使得模型不仅能预测“世界可能如何变化”,还具备了动作条件下的控制能力,实现规划执行。 零样本机器人控制能力 V-JEPA 2可直接在未见过的新环境、新物体中进行零样本规划与机器人控制。不同于其他机器人基础模型需在部署环境中采集训练数据,V-JEPA 2仅使用公开DROID数据集训练,即可部署至实际机器人系统,实现如“抓取并放置物体”这类基础任务。 对于短期任务(如抓取物体),用户提供目标图像,模型通过编码当前状态和目标状态进行比对并规划行为。在每一步中,机器人都会重新评估行动方案,并通过模型预测控制(Model Predictive Control)执行最佳动作。 对于长期任务(如将物体放置至指定位置),V-JEPA 2支持多阶段目标规划(Visual Subgoal Planning),仿似人类模仿学习。这使得机器人在未见物体/环境下的任务完成率达到65%至80%。 三项全新开放评测基准:衡量视频模型的“物理世界智慧” Meta还同步发布三项评测数据集,用于测试当前视频模型是否真正具备“物理直觉”和“因果推理”能力。这些基准覆盖人类在生活中本能掌握的基本物理规律与推理方式。 1. IntPhys 2 衡量模型判断物理可能性与不可能性的能力。通过成对视频对比:两个视频前半段完全一致,后半段其中一个发生违反物理规律的事件(如穿墙、漂浮),模型需判断哪一个不合常理。人类准确率可达95%,但当前模型仍接近随机水平。 2. MVPBench(Minimal Video Pairs) 使用微差视频对测试模型在视觉-语言问答中的物理理解。每组题目含两条几乎相同视频,但正确答案相反。只有同时答对主视频与“微差版本”问题,才算通过,避免模型依赖表面特征作弊。 3. CausalVQA 考查模型是否能回答物理因果关系相关问题。包括: 这类问题比“视频中发生了什么”更具挑战性,测试模型是否真正理解动态因果链条。目前模型在这些问题上与人类表现仍有显著差距。 未来展望:通向高级机器智能的下一步 V-JEPA 2已具备单一时间尺度上的理解与预测能力。但现实任务通常需跨越多个时间尺度(如烘焙蛋糕、组装家具)。下一阶段,Meta将探索多层次、分层式JEPA模型,让AI能处理长期目标与中短期子任务之间的协调。 此外,Meta还计划发展多模态世界模型,引入视觉、音频、触觉等多感知维度,以进一步贴近人类认知方式。…
AI可以在面试中使用
软件工程的本质正在快速变化。在Canva,公司始终认为招聘流程必须与工程师日常使用的工具和实践同步演进。因此,现在Canva正式宣布:在后端、机器学习和前端工程师的技术面试中,不仅可以使用AI工具,而且必须使用。无论是GitHub Copilot、Cursor还是Claude,候选人都应在面试中积极使用这些AI助手。 现代工程现实:AI已成为日常开发工具 目前,在Canva,有近一半的前端和后端工程师每天都在使用AI辅助编程工具。这些工具帮助工程师快速构思原型、理解大型代码库并生成代码,从而腾出更多时间专注于核心使命——“赋能全球设计”。 Canva不仅鼓励员工使用AI,还明确期望工程师将AI集成进他们的工作流中。AI已经成为现代开发的生产力工具,能显著提升效率与竞争力。 然而在此之前,Canva的面试流程却仍然要求候选人在没有AI辅助的情况下解决算法和数据结构题目。这种脱离实际开发环境的考核方式,无法准确衡量候选人真实的工作表现。 理念转变:拒绝检测,拥抱透明 随着AI辅助工具的普及,越来越多的候选人在技术面试中秘密使用AI,有时甚至使用专门为“避开检测”而设计的工具。面对这种趋势,Canva不再试图监管AI的使用,而是选择主动拥抱这一现实。 公司希望看到的是:候选人如何与AI协作解决问题。这种方式,才能真实反映他们在入职后处理任务的能力。 初期的实验印证了这一决策:AI助手能轻松解决传统面试题,生成的答案不仅正确,还格式规范、带有详尽注释,几乎无需任何额外提示。这一发现促使团队重新审视面试方式,以确保能够准确评估候选人的真正能力。 面试的再设计:更真实、更复杂、更模糊 工程工作本质上更多是阅读与理解代码,而不是从零写出完整算法。工程师大多数时间都在阅读现有代码库、审查Pull Request、迭代优化。AI工具能够辅助生成初始代码,但工程师必须具备分析、理解与改进这些代码的能力。 因此,Canva重新设计了技术面试,题目更贴近真实开发情境——复杂、模糊且需要工程判断。这些问题不可能通过单一提示完成,而是需要候选人进行反复思考、澄清需求并做出技术决策。 例如,与其要求候选人实现“康威生命游戏”,现在可能会给出这样的挑战:“构建一个管理繁忙机场起降控制系统的控制平台。” 引入AI辅助编程面试:技能更全面的考核方式 Canva现在推出全新面试环节——“AI辅助编程”,用于替代原有的计算机科学基础面试(Computer Science Fundamentals)。这一环节主要面向后端与前端候选人,面试题围绕现实产品挑战设计,并明确要求使用AI工具。 但这不是“全靠AI完成任务”。面试重点考核的能力包括: 团队内部的质疑与支持 在初次提出改革时,公司内部确实出现过质疑。一些工程师担心面试流程“从严谨的技术考核变成了‘氛围编程’(vibe-coding)表演”。 但这一担忧是合理的,也促使面试设计团队明确:技术深度和代码掌握依然是核心评估项,只是考核方式发生变化。候选人仍需对最终代码结果负责,无论是亲手编写,还是借助AI生成。 在得到这些解释后,工程团队普遍由抵触转为支持,认为这是一种技术评估更贴近现实工作场景的方式。 初步经验总结:优秀候选人如何使用AI? 试点阶段的面试带来许多启示。最成功的候选人不是机械地接受AI输出,而是具备如下特质: 而缺乏AI使用经验的候选人往往表现较差,问题不是不会编码,而是无法有效驾驭AI、或不懂得何时拒绝不理想的建议。 向前看:AI时代的工程能力评估标准 Canva充分意识到,这种面试方式要求候选人改变准备策略。因此,公司会提前通知所有参与者,明确告知他们面试中将使用AI工具,并强烈建议提前进行实战练习。 这一改革,反映了Canva的核心理念——“AI无处不在”。不仅为用户构建AI功能,也在重塑企业内部的工作方式、创造流程与问题解决路径。 公司相信,未来属于那些能够将人类创造力与AI能力无缝融合的工程师。熟练掌握AI工具,不仅有助于通过面试,更是日常工作中脱颖而出的关键能力。 目前,这种新形式的面试反馈积极。无论是对候选人还是面试官,都更具互动性,并能准确预测候选人在团队中的表现。最重要的是,这一方式帮助Canva识别出真正能善用AI、构建未来视觉传播工具的工程师。 AI发展仍在迅速演进,Canva的面试流程也将持续适应更新。现在有效的方法,也许在半年后需再次迭代。公司承诺,始终动态评估与优化面试设计,确保评估的始终是最关键的工程能力。
Mistral AI发布Magistral系列:面向企业与开源应用的先进链式思维大语言模型
Mistral AI正式推出Magistral系列,这是该公司迄今为止最具推理能力的大语言模型(LLM)套件,标志着LLM能力发展的重要跃迁。该系列包括两个版本:Magistral Small,一个拥有240亿参数、遵循Apache 2.0许可证的开源模型;以及Magistral Medium,一个专为企业级应用设计的专有版本。此次发布强化了Mistral在全球AI版图中的地位,重点聚焦“推理时间”性能优化这一LLM设计的前沿方向。 Magistral系列体现了从“参数规模优先”到“结构化推理优先”的根本性转变。无论是开源版本Magistral Small,还是企业部署向的Magistral Medium,两者均采用链式思维(Chain-of-Thought, CoT)微调技术,支持逐步生成中间推理步骤。这一策略大幅提升了模型在多步推理任务中的准确性、可解释性和稳健性,尤其适用于数学运算、法律分析及科学问题求解等场景。 Magistral Small在语言能力方面也表现突出,原生支持包括法语、西班牙语、阿拉伯语和简体中文在内的多种语言。相较于其他以英语为中心的大语言模型,该模型展现出更强的全球适应性,使其在多语言、跨文化应用中具备天然优势。 在部署策略上,Mistral采取“开源+专有”的双轨发布路径:Magistral Small完全开放,遵循Apache 2.0许可证,已在Hugging Face平台上线,适用于研究、定制和商业化部署;而Magistral Medium则聚焦企业级场景,通过Mistral的云平台和API进行部署,具备更强的吞吐能力和实时响应表现,专为延迟敏感型生产环境而设计。 性能方面,根据Mistral内部评估,Magistral Medium在AIME2024基准测试中准确率达到73.6%,通过多数投票策略进一步提升至90%;Magistral Small表现也不俗,准确率达70.7%,多数投票后上升至83.3%。这些成绩已使Magistral系列跻身于当今前沿LLM之列,具备与GPT-4、Claude 3等顶级模型抗衡的实力。 Magistral Medium在吞吐与响应速度上的表现也十分亮眼,其推理速度可达每秒1000个token,适用于高并发、大规模企业系统。这一性能提升得益于Mistral自研的强化学习(RL)微调流程以及高效的解码策略。与市面上大多采用通用RLHF模板的模型不同,Magistral采用自定义的“推理语言对齐”(Reasoning Language Alignment)机制,以显式方式引导推理路径生成,确保输出逻辑一致性。这一机制也与Mistral基础模型系列的指令微调、代码理解和函数调用原语保持兼容,提升了整体系统的可扩展性。 此次发布也在行业中产生深远影响。凭借强大的推理能力和多语言支持,Magistral系列特别适合部署于对解释性与可追溯性要求极高的领域,如医疗保健、金融服务与法律科技等受监管行业。在这些领域,系统的稳定性、可控性与准确性是业务决策中不可或缺的要素。Magistral通过结构化推理方式,能有效降低“黑箱输出”风险,为关键行业提供透明且可验证的AI解决方案。 值得注意的是,Mistral并未简单追求参数膨胀,而是从“推理时间效率”出发设计模型,使其在无需依赖超大算力资源的情况下依然具备强大能力,顺应当前全球范围内对“高效低耗”模型日益增长的需求。 从战略角度来看,Magistral的“双版本”路径也体现出Mistral对生态构建与市场覆盖的深度思考。一方面,通过Magistral Small激发研究界与开发社区的参与与创新;另一方面,通过Magistral Medium提供企业级服务能力与商业化落地保障。这种模式类似于基础软件平台的双重路径,比如Linux内核与企业版Red Hat系统的并行演进模式,极大提高了平台的适应力与延续性。 随着Magistral系列即将在MMLU、GSM8K、Big-Bench-Hard等标准公开基准上亮相,其实际竞争力将在更广泛环境中得到全面验证。目前已公布的内部评测数据令人期待,而后续的公开对比将成为其市场接受度与技术定位的重要参考。 展望未来,Magistral不仅是一款新型语言模型,更代表Mistral AI在AI全球格局中的一次战略发声。它在技术维度上强调“推理质量”,在市场维度上体现“开放与闭源并重”,在产品维度上主打“高效可控”,在行业维度上推进“跨语境落地”。在“推理成为AI核心差异化要素”的背景下,Magistral提供了一种极具现实可行性的替代方案。 Magistral系列的推出,不仅是Mistral迈向AI领导力的一次突破,也是欧洲AI技术在全球科技格局中的一次集体进击。它象征着大语言模型进入新阶段的开始——推理为王,效率为本,多语共存,开放共赢。
2025年改变AI驱动软件开发的15款主流“Vibe Coding”工具
随着以AI为核心的开发模式彻底重塑软件构建方式,“Vibe Coding”(氛围编程)这一颠覆性理念迅速兴起。在这一新范式中,开发者只需“说出想法”,智能代理便能完成构建工作。“Vibe Coding”一词由前特斯拉AI负责人Andrej Karpathy提出,象征着从传统代码密集型工作流向自然语言驱动的软件原型设计的转变。 以下是15款在2025年广受信赖、支持“Vibe Coding”工作流的工具清单: 1. Cursor 一款原生AI集成开发环境(IDE),具备“多代理提示”和迭代开发能力。其标志性功能“Agent Mode”结合了GPT-4o与Claude 3,支持整项目级别的代码生成,适合复杂开发任务。 2. Replit 基于浏览器的IDE,内嵌Replit AI Agent,可通过自然语言快速生成代码。特别适合Web应用快速原型开发和无需环境配置的共享。 3. Claude Code(Anthropic) 终端风格界面,允许用户与AI对话完成代码构建与编辑。具备项目记忆功能,支持多步骤自然语言编程操作,适合持续性开发任务。 4. GitHub Copilot 现已支持“Agent Mode”,通过提示实现完整代码任务执行。深度集成至VS Code及GitHub平台,是GitHub生态中最强AI助手之一。 5. Cascade(Windsurf) 面向实时协作与自动代码生成的AI代理系统。强调最小输入负担下的迭代式开发流程,适用于快速构建与修改场景。 6. Junie(JetBrains) JetBrains推出的AI插件,专为语言感知开发而设计。支持基于提示的交互与智能调试流程,适合注重精度与逻辑的开发者。 7. Augment Code 适配多种代码编辑器的对话式编码工具。用户可本地或远程调用代理完成从规划到Pull Request的完整开发流程,适合任务交付密集型场景。 8. Zed Editor 下一代高性能协作编辑器,融合人类与AI高效互动体验,强调即时性与协作性,适合远程多方联合开发。 9. Cody(Sourcegraph) 面向大规模代码库的AI助手,擅长代码阅读、理解与更新。特别适用于技术债重构与遗留系统维护任务。 10. Tabnine 基于设备端大语言模型(LLM)的上下文感知自动补全工具,提供企业级安全、隐私友好的AI编码体验。 11. Codex(OpenAI) OpenAI推出的基础代码生成模型,支持命令行、IDE及应用层代码生成,是众多“Vibe Coding”平台的技术底座。 12. Lovable 无代码平台,集成AI设计与应用构建功能,专为产品设计师及非技术创始人打造,适合快速产品可视化验证。 13….
山姆·奥特曼反思:从ChatGPT两周年到超级智能的未来之路
ChatGPT的两岁生日刚刚过去一个多月,如今,人工智能已经迈入了能够进行复杂推理的新范式。新年的到来常常激发人们的反思情绪,因此,此刻也显得格外适合回顾至今为止的进展,并分享一些这段旅程中的个人体会和学习。 随着越来越接近通用人工智能(AGI),公司发展的每一步都显得格外重要。还有许多东西尚待理解,也有很多未知尚未揭晓,整个旅程依旧只是开始。不过,与起初相比,所掌握的知识已经大大增加。 大约九年前,OpenAI正式创立,源于一个坚定的信念——AGI是可能实现的,并且可能成为人类历史上最具影响力的技术之一。创始团队希望弄清楚如何构建AGI,并使其广泛造福人类,对能在历史上留下印记充满热忱。这种雄心壮志非同寻常,而他们也坚信其成果将以同等非凡的方式回馈社会。 在那个时候,几乎没有人关注这个领域,而少数关注的人多数是因为他们觉得OpenAI几乎没有成功的可能。 2022年,OpenAI仍是一个低调的研究实验室,当时正在开发一个暂时被称为“Chat With GPT-3.5”的项目。(团队在起名字方面远不如做研究那样擅长。)当时注意到许多开发者在使用API中的playground功能并乐在其中,因此决定围绕这种互动体验构建一个演示版本,以向大众展示AI未来的潜力,同时改善模型的表现与安全性。 最终,这个项目被命名为“ChatGPT”,并于2022年11月30日正式发布。 团队始终抽象地预见到,有朝一日AI革命将达到临界点,但并未预料到具体时刻会如此降临。令人惊讶的是,这个时刻竟然就是ChatGPT的发布。 ChatGPT的发布引发了一场前所未见的增长浪潮,涵盖公司、行业乃至全球。人们终于看到了人工智能带来的巨大红利,而更大的潜力正在逐步显现。 这条道路并不平坦,也没有标准答案。 在过去两年间,OpenAI几乎从零开始,围绕这项新技术搭建起整个公司。没有哪种培训能为此做好准备,在技术范畴完全新颖的情况下,也无人能准确指点应当如何进行。 在高速增长、缺乏成熟培训机制的背景下建设企业,是一项混乱的过程。它常常意味着进两步退一步,有时甚至是进一步退两步。错误会在过程中被修正,但在进行原创性工作时,几乎没有现成的手册或参考。以高速航行在未知水域是一种难以置信的体验,但对所有参与者而言,也极具压力与挑战,冲突和误解频发。 这几年成为了人生中最充实、有趣、精彩、复杂、压力重重、筋疲力尽、尤其在最近两年中甚至不愉快的阶段。总体而言,最大的感受是感激之情。可以想象未来某天,当本人在牧场退休、望着植物生长、略感无聊时,会回忆起曾经梦想成真的那段时光是多么酷。每当某个星期五,在下午一点前已有七件事出错时,这种心态尤为重要。 一年多以前的某个星期五,最大的意外是被突然解雇——一次视频通话中被通知,然后董事会立即发表了一篇博文宣布此事。彼时人正在拉斯维加斯的酒店房间内,这种经历如梦似幻,仿佛美梦瞬间崩塌,几乎无法形容。 这场突如其来的公开解雇,引发了一连串疯狂的几个小时,甚至数天的混乱局面。其中最离奇的,是“战争迷雾”般的信息不对称。团队成员均无法得到合理解释,不清楚事件背后的缘由和具体过程。 个人认为,这是一次治理机制的严重失败,尽管相关人员都怀有善意,其中也包括本人。回头来看,确实希望当初处理方式不同,也愿相信如今的自己已成为一个更成熟、更有思考力的领导者。 此事件也让人认识到,董事会中不同观点的多样性及处理复杂挑战的广泛经验极为重要。良好的治理结构需要高度信任与信誉。令人欣慰的是,很多人齐心协力,为OpenAI构建了更为坚实的治理体系,使得公司能够继续践行“确保AGI造福全人类”的使命。 从这段经历中最大的收获,是明白自己有无数值得感恩的人:感谢所有在OpenAI工作的成员,愿意将时间与精力投入在这个梦想中;感谢那些在关键时刻帮助团队度过难关的朋友;感谢合作伙伴与客户对OpenAI的支持与信任;以及那些在生活中表现出真挚关怀的人们。 整个团队以更加团结和积极的姿态回归工作,这段时间以来的专注令人自豪。OpenAI完成了有史以来最出色的一些研究,周活跃用户从约一亿增长到三亿以上。最重要的是,公司持续推出深受用户喜爱、真正解决实际问题的技术产品。 九年前,团队完全无法预见自己最终会成为什么模样;即使到现在,也只是“部分了解”。人工智能的发展道路充满变数,未来仍会出现更多意料之外的拐点。 其中一些转变令人喜悦,有些则令人艰难。目睹一连串研究奇迹的诞生令人兴奋,许多曾经的怀疑者也逐渐转变为坚定支持者。当然,也见证了部分同事离开并成为竞争对手。随着规模扩大,团队的更迭成为常态,OpenAI的成长速度更是远超常规。在一般初创企业中,每一次大规模成长阶段都会带来团队重组,而OpenAI每隔几个月便发生数量级的扩张。在如此迅速的发展中,利益和目标的分歧难以避免。在一个关键行业中处于领先地位,自然会受到来自各方的攻击,尤其是那些竞争对手。 专注于做出优秀的研究。同样,也未曾预料到为了实现目标所需的资金会如此庞大。如今,有许多新任务摆在眼前,而在几年前,团队对这些需求还毫无概念。未来也会出现更多现在难以想象的挑战。 OpenAI对目前在研究与部署方面取得的成绩感到自豪,并将继续致力于在安全性与利益共享方面推动思考的前进。团队始终相信,让AI系统变得更安全的最佳方式,是通过迭代和逐步地将技术推向世界,从而让社会有时间适应并与之共同进化,在实际经验中不断学习与改进技术,持续增强其安全性。OpenAI坚信,在安全性与对齐研究方面保持世界领先地位至关重要,并且认为这类研究必须以现实世界应用的反馈为导向。 如今,OpenAI已经有信心表示,团队已经掌握了构建传统理解上的通用人工智能的方法。预计在2025年,将会看到首批AI代理人“加入劳动市场”,并显著改变企业的产出方式。团队依然坚持这样一种理念:不断地将优秀工具交到人们手中,会带来优秀且广泛分布的成果。 现在,团队的目标正在进一步扩展,着眼于真正意义上的“超级智能”。尽管当前的产品令人满意,但真正的使命,是迈向一个更加辉煌的未来。借助超级智能,人类几乎可以完成任何事情。这类超级智能工具将极大加速科学发现与技术创新,突破人类自身的能力极限,从而极大提升资源的丰度与社会的繁荣。 虽然这一切目前听起来仍像是科幻,甚至说出口都有些荒谬,但团队对此并不陌生,也乐于再次面对类似处境。可以相当有信心地说,在未来几年中,世人将逐渐看到团队所看到的东西,也会认识到在尽最大努力实现广泛福祉与赋能的同时,必须极度谨慎地行动,是多么重要。鉴于所涉及的可能性,OpenAI无法是一家普通公司。 能参与到这项事业之中,是一种无比幸运且令人谦卑的经历。 (感谢乔希·泰兰吉尔(Josh Tyrangiel)在某种程度上促成了这次反思。真希望当时有更多的时间。) 补充说明: 在那几天里,有许多人为OpenAI,乃至为山姆·奥特曼本人,做出了惊人且巨大的努力,但有两位尤为突出。 Ron Conway与Brian Chesky的贡献超出了职责范围的任何定义,甚至让人难以用语言准确形容。虽然多年来人们常听闻Ron以坚韧著称,而过去几年与Brian相处过程中也获得了大量帮助与建议,但真正经历过生死攸关的危机时刻,才能真切理解他们的能力。 可以合理推测,若无这两人的帮助,OpenAI或许早已解体。他们昼夜不停地工作,直至危机平息。尽管工作强度极高,两人始终保持冷静,提出清晰的战略思路与宝贵建议。他们阻止了若干错误决策的发生,自己则未犯任何失误。他们动用庞大的关系网络,处理复杂局势,完成了许多事——其中不少恐怕至今仍不得而知。 最令人难忘的,还是他们所展现出的关怀、同理心与支持。 原本以为已经了解何为支持创始人与企业,在某种程度上也许是如此。但此前从未见过,也从未听说过像这两位那样的支持行为。如今终于理解,为何他们在行业中拥有传奇般的地位。他们虽性格不同,却都具备翻山越岭、无私援助的非凡能力,也都在关键时刻展现出毫不动摇的承诺。科技行业因有这两人而更加美好。 还有其他与他们类似的人。这正是这个行业极其独特且值得珍惜的部分,为整体运转贡献巨大,远超人们的普遍认知。未来,也期望自己能以类似方式“传递”这份恩情。 另外,还要特别感谢Ollie——无论是那个周末,还是一直以来的支持。他在各方面都令人钦佩,能有这样的伴侣,是任何人都难以奢求的幸福。
Meta公司即将完成对人工智能数据标注初创企业Scale AI的投资协议
Meta公司即将完成对人工智能数据标注初创企业Scale AI的投资协议,总金额高达140亿美元。这项交易不仅意味着Meta将获得该公司49%的股份,还将迎来Scale AI联合创始人兼首席执行官Alexandr Wang的加入,他将领导Meta新组建的AI研究实验室,并携部分原团队成员一同进入Meta体系。此举被视为Meta首席执行官马克·扎克伯格(Mark Zuckerberg)在人工智能领域所做出的最大一次战略押注。 据知情人士透露,扎克伯格对Meta在人工智能核心模型和面向消费者应用方面落后于竞争对手OpenAI的现状深感不满。此前发布的Llama 4模型未能在开发者群体中赢得预期反响,仅推出两个小型版本,承诺中的更强大版本“Behemoth”因性能未达扎克伯格预期而推迟上线。为此,Meta已对旗下生成式AI(GenAI)团队进行重组,将其分为AI产品和AGI基础两大分支,由Connor Hayes与Amir Frenkel、Ahmad Al-Dahle分别负责。 业内人士指出,扎克伯格之所以选择Alexandr Wang,而非一如既往地重用Meta内部的忠诚高管,显示出他对当前形势的高度紧迫感。Wang是麻省理工学院的辍学生,近年来在AI领域积累了卓越声誉,尤其擅长将技术复杂性与商业落地相结合。其领导下的Scale AI不仅成为OpenAI、谷歌和微软等科技巨头的关键数据提供商,也在国防领域持续扩张。今年3月,Scale AI与美国国防部签订了数百万美元的合同,并与Meta联合打造了专为国家安全任务定制的Defense Llama模型。 此次投资策略也反映了Meta在反垄断审查压力下采取的谨慎路径。不同于直接收购,Meta选择入股模式,效仿谷歌与微软此前对Character.AI和Inflection AI等初创企业的投资方式,以避免进一步刺激监管机构。 据《纽约时报》最早披露的信息,Wang将协助建立Meta新的AI研究机构,该机构未来或将成为公司推动AI战略的关键力量。Wang本人在2025年1月接受CNBC采访时曾指出,中美之间正在展开一场“AI战争”,而美国需要大量算力和基础设施来应对挑战。他表示:“美国必须释放能源潜力,推动AI繁荣发展。” 外界普遍认为,Meta此番重金引进Wang及其团队,不仅是对Scale AI强大数据能力的认可,更是希望借助其对行业格局和竞争态势的深刻理解,提升Meta在ChatGPT等类产品上的竞争力。Scale AI的竞争对手SuperAnnotate首席执行官Vahan Petrosyan表示:“Scale可能已覆盖了大约70%的AI模型构建过程。Meta的收购,实质上是对这类集体智能的获取。” Meta与Scale AI方面目前均未对此交易发表评论。随着交易即将敲定,Meta在全球AI竞赛中的下一步布局正逐渐浮出水面。