谷歌云与加州大学洛杉矶分校(UCLA)的研究团队近日提出一种全新的强化学习框架,可显著提升语言模型在多步骤、高难度推理任务中的表现。这一被称为 监督强化学习(Supervised Reinforcement Learning, SRL) 的方法,将问题求解重新定义为一系列逻辑“动作”,使训练过程获得更丰富的学习信号。 研究表明,SRL 能让规模更小、成本更低的模型掌握以往难以触及的复杂推理能力,不仅在数学推理测试中表现突出,还能有效推广至 软件工程代理任务,展现出跨领域的泛化能力。 研究团队强调,SRL 是一个高度通用的训练框架,可让小模型获得远超其规模的推理能力。 当前大模型推理训练的瓶颈 目前推动大模型推理能力进步的核心方法主要包括: 其中,RLVR依据最终答案是否正确给予奖励。模型反复尝试解题,在最终对错的反馈中逐渐学会策略。但由于推理“rollout”代价昂贵,模型能尝试的次数非常有限——问题一旦过难,模型往往连一次正确解题都无法“踩中”,导致完全没有学习信号。 更严重的是,复杂推理中模型可能前几步都正确,却在最后一步出错。RLVR 仍给出“错误”奖励,使得模型无法从部分正确的过程学习,这被称为稀疏奖励问题。 另一方向是 SFT,模型模仿专家的详细推理轨迹,但容易过拟合——只会复述训练数据中出现的路径,而非真正理解。同时,高质量专家推理数据极其昂贵与稀缺。 正如论文指出的,现有方法造成了一个严重缺口: SRL:介于 RL 与 SFT 之间的“中间道路” SRL 采用一种“顺序决策”框架,在最终结果奖励与全路径模仿之间找到平衡。它不是要求模型只关注最终答案,也不是要求模型逐字模仿专家思路,而是教模型模仿专家推理中的关键动作序列。 专家的完整解题过程会被拆解为一系列具体动作,例如: 训练数据由更强大的“教师模型”生成,再用于训练较小的学生模型。 Google 研究科学家、论文共同作者许一宏(I-Hung Hsu)指出,SRL 的优势在于贴近现实场景: 密集奖励训练:模型每做一步动作就获得反馈 在训练时,模型会先产生内部推理“独白”(以 <think> 标签包裹),再做出一个动作。SRL 依据模型预测动作与专家动作的相似程度给出逐步奖励。 这意味着模型即使最终解题失败,也能从部分正确推理中学习,彻底解决了 RLVR 的稀疏奖励困境。 SRL 的实测效果:更强推理、更高灵活性、无额外推理成本 研究中,SRL 在数学推理与软件工程代理任务中均显著优于现有技术。研究者观察到 SRL 训练出的模型更擅长: 在推理效率上,SRL 也未显著增加 token 使用量,这意味着更强的推理能力并不以更高成本为代价。 Hsu 强调: “推理提升来自结构化推理本身,而非输出变长。” 数学推理实验:小模型提升 3%…
Nvidia 正准备从卖 GPU 转向“整机交付”
摩根大通最新分析指出,随着 Nvidia 明年推出用于 AI 与高性能计算(HPC)的 Vera Rubin 平台,AI 硬件供应链可能迎来重大变化。根据报告,Nvidia 计划向合作伙伴直接交付 完全组装好的 Level-10(L10)VR200 计算模组,其中包含所有计算部件、散热系统与接口。这意味着 OEM/ODM 厂商几乎不再需要自行设计关键部件,其利润空间也将因此受到挤压。目前该信息尚未获得官方确认。 从卖 GPU 到卖整机:Rubin 时代的激进整合 传闻显示,从 VR200 平台开始,Nvidia 将: 这不是 Nvidia 第一次尝试深度整合:在 GB200 平台时代,Nvidia 就曾交付过预组装的 Bianca 板卡,但当时层级属于 L7~L8,而 VR200 则将这一整合程度推向 L10 完整计算模块。 如果摩根大通的消息属实,这意味着 Nvidia 将掌握一台 AI 服务器近九成的价值,而合作伙伴的角色被大幅弱化为: 这些工作虽必要,但几乎不再构成技术差异化。 为何 Nvidia 要大幅提高整合度?复杂设计 + 极端散热需求是关键 Rubin 平台的硬件设计难度极高。此前黄仁勋展示过 Vera Rubin Superchip,其: 这些设计成本昂贵,也需要大量时间。摩根大通认为,若由 Nvidia 直接与…
Anthropic 的新报告“味道不太对”——缺乏证据、缺乏细节、却满满营销意味
近期,AI 公司 Anthropic 发布了一份关于网络攻击的重量级报告。该公司因其 Claude 系列 AI 工具而走红,尤其在代码辅助方面广为宣传。然而,这份本应具权威性的威胁情报报告,却因其模糊的细节、缺失的指标与高度营销化的内容,在网络安全社区引发强烈质疑。 报告执行摘要中最引人注目的段落如下: “2025年9月中旬,Anthropic 侦测到一项高度复杂的网络间谍行动,该行动由一个被命名为 GTG-1002 的中国国家支持组织实施……攻击涉及约30个目标实体,并验证了部分成功入侵。” 乍看之下,这段文字信息量巨大: 网络安全分析人士原本预期,报告后续应提供完整的 TTP(攻击战术、技术和流程)、IoC(攻击指标)以及可用于其他机构自查的证据。然而,报告越读越让人失望——缺乏验证、缺乏细节、缺乏任何行业标准必备内容。 关键问题:IoC在哪里?证据在哪里? 一份合格的威胁情报报告通常会包含: 例如,法国 CERT 公布的 APT28 报告就包含上述所有关键信息。但在 Anthropic 的报告中: 换言之,未提供其他机构保护自身所需的最基本情资。 关于“80–90% 自动化攻击”的说法毫无证据 报告声称: “Claude Code实例以自治渗透测试代理的形式执行80–90%的战术操作,执行速率为人类物理上不可能达到的规模。” 然而: 这些问题,报告全部避而不答。 报告还宣称 Claude 执行了 “系统性证书与凭证搜集”。但未说明: 没有方法、没有样本、没有路径、没有细节。 归因中国?却不给任何证据,这极其不专业 报告声称攻击来自“中国国家支持组织”。但未提供: 现实中,APT 归因需要严谨证据,背后甚至有外交影响。而该报告只是轻描淡写地一句话归因,完全不符合专业标准。 业内人士指出:在西方与中国关系紧张之际,这种无证据指控不仅鲁莽,而且可能误导公众。 更令人担忧的是,如果没有证据,这些所谓“高度先进攻击者”甚至可能只是自动化脚本小子。 报告目的似乎不在安全,而是营销 报告末尾突然给出一句关键话: “安全团队应开始在SOC自动化、威胁检测、漏洞评估、事件响应等领域尝试使用AI。” 结合全文,这似乎暗示: 安全社区专家指出: 从结构到内容,整个报告更像营销宣传,而非专业威胁情报。 结语:报告专业度不足,风险夸大,证据缺失,被指“不负责任” 综合分析,安全社区普遍认为: 在当下 AI 技术快速扩张的时代,安全行业对事实与证据的要求比以往更高,而并非更低。…
泄露文件揭示:OpenAI向微软支付的真实金额首次曝光
在过去一年中,随着OpenAI密集的融资行动与IPO传闻不断,其财务状况正受到空前关注。科技博主Ed Zitron近期获得的泄露文件,为外界首次提供了有关OpenAI具体收入以及其向微软支付的算力费用规模的更清晰图景。 文件显示,2024年微软从OpenAI获得 4.938亿美元 的分成收入;而2025年前三季度,这一数字上升至 8.658亿美元。 据悉,这些分成基于双方此前的合作协议:微软曾向OpenAI投资超过130亿美元,作为交换,OpenAI reportedly需将 约20%收入 返还给微软(双方从未公开确认这一比例)。 然而,这段合作关系远比表面复杂。 双向分成:微软也向OpenAI支付费用 一位熟悉内情的消息人士向TechCrunch透露,不只是OpenAI向微软返利,微软也会将Bing与Azure OpenAI Service的部分收入回拨给OpenAI,比例同样约为20%。 原因在于: 此外,这位消息人士强调,泄露的分成数字指的是 “净分成”,并不包括微软从Bing与Azure所得后返还给OpenAI的金额——这些金额会从微软对外披露的内部收入分成数据中被扣除。 由于微软没有披露Bing与Azure OpenAI的独立营收规模,外界无法得知实际返还给OpenAI的具体金额。 财务推算:OpenAI收入规模或远超已知数字 按照广泛报道的20%分成比例,可以推算: 但消息普遍认为实际收入更高。此前《The Information》报道: 而萨姆·奥特曼近期公开表示: 成本激增:推理(Inference)开销正在吞噬利润 Zitron的分析指出,OpenAI: 这意味着推理成本增长速度惊人。推理指的是模型日常运行所需的算力,是持续高额现金支出。 相比之下,训练成本(Training)多由微软先前的投资“算力信用”覆盖,因此是非现金支出。 也就是说: OpenAI的实际现金流压力来自推理成本,而这部分费用可能已超过其收入。 过去报道显示: 综上,这些数字暗示OpenAI可能仍处于 收入覆盖不了推理支出 的阶段。 对整个AI行业意味着什么? 在纽约和硅谷,从风险投资人到科技公司高管,“AI泡沫是否已经出现”的讨论愈发激烈。若连OpenAI这样估值高达数千亿美元的巨头依然因推理成本陷入亏损,那么其他依赖大模型、需要持续花钱购买算力的AI创业公司又将面临何种处境? 这或将影响全球AI产业的估值、投资节奏与资本态度。 OpenAI拒绝发表评论;微软未回复置评请求。
麻省理工学院未来研发更高温超导体打开了新路径
麻省理工学院的物理学家近日在“魔角”三层扭转石墨烯(magic-angle twisted trilayer graphene,MATTG)中观测到清晰且决定性的非常规超导性证据。这一发现为未来研发更高温超导体打开了新路径,并可能推动零能量损耗电网、量子计算等革命性技术的发展。 超导体能够让电流毫无阻力地穿过材料,因而极其节能。但传统超导体必须在极低温下才能保持超导状态,严重限制了应用范围。因此,科学界持续探索能够在更高温度下工作的“非常规超导体”。MATTG正是近年来最受关注的候选材料之一,由三层石墨烯以特定“魔角”堆叠而成,其内部电子结构因扭角而呈现奇特的量子行为。 此前,MATTG被观测到多种间接的非常规超导迹象,而MIT团队本次在《Science》期刊上发表的成果,被认为是迄今最直接、最明确的证据。 研究团队成功精确测量了MATTG的超导能隙(superconducting gap)——这是判断一种超导机制是否“非常规”的关键物理量。他们发现,MATTG的能隙呈现明显的V形结构,这与传统超导体平坦均匀的能隙曲线截然不同,说明其超导机理必须由全新的电子作用驱动。 “超导能隙为我们提供了材料何以成为超导体的重要线索。”论文共同第一作者、MIT物理系研究生孙书雯(Shuwen Sun)指出,“理解这些机制将有助于未来设计出甚至可能在室温工作的超导体。” 新型实验平台:在二维材料中“实时观看”超导形成 为了获得这一关键证据,研究团队开发了一种全新的实验平台,将量子隧穿谱技术与电输运测量结合在同一个装置中。隧穿谱可观察电子如何穿过材料,而电输运则可监测材料是否进入零电阻的超导状态。 通过这套系统,研究团队在同一块MATTG样品中同时确认了零电阻(超导特征)与V形隧穿能隙(非常规特征),实现了领域内长期难以做到的“直接关联证明”。 随后,团队研究了能隙在不同温度与磁场下的演化,确认其行为与传统由晶格振动驱动的超导机理不一致。 论文共同作者朴正敏(Jeong Min Park)解释道:“在传统超导体中,电子配对依靠晶格振动。但在魔角石墨烯中,更可能是强电子相互作用本身促成配对,从而形成具有特殊对称性的非常规超导态。” “扭曲材料体系”(Twistronics)再迎突破 自2018年Pablo Jarillo-Herrero教授团队首次制备魔角双层石墨烯以来,“扭学”(twistronics)迅速成为量子材料领域最热门的方向之一。通过对二维材料进行原子级扭转,可产生莫尔(moiré)干涉图案,使电子出现强关联效应,从而诱发超导、绝缘相和奇特的量子态。 本次对MATTG超导能隙的首次直接测量,是这一研究方向的里程碑成果。团队计划将新平台应用于更多二维扭转材料,以寻找更高温、更稳定的超导体候选者。 “深入理解一种非常规超导体,可能会带来对整个超导体系的突破性认识。”Jarillo-Herrero表示,“这将为我们设计未来的室温超导材料提供方向——那是整个领域的‘圣杯’。” 该研究由美国陆军研究办公室、空军科研办公室、国家科学基金会、戈登和贝蒂·摩尔基金会等机构支持。
“暗激子(dark excitons)” 以 30万倍亮度被观测到
纽约城市大学(CUNY)与德克萨斯大学奥斯汀分校的研究人员近日在现代光学领域取得重大突破——他们成功让一种极难探测的量子光状态 “暗激子(dark excitons)” 以 30万倍亮度被观测到,并可实现精确操控。此成果为更快速、更小型、更节能的量子计算与光子技术奠定了新基础。 暗激子是一种存在于原子级超薄半导体中的奇异“光-物质耦合”状态,由于其发光极弱,通常处于“隐形”状态。然而,它们的长寿命和极低环境干扰特性,使其成为量子信息处理和传感领域的理想候选。 为了让暗激子显现,研究团队构建了一种全新的纳米级光学腔结构,由金纳米管与一层仅三原子厚的**二硒化钨(WSe₂)**构成。这个精密的等离子体-激子纳米异质结构使暗激子的发光增强到原来的 近30万倍——不仅首次让其“发光”,还实现了纳米尺度的可控操作。 CUNY光子学计划负责人、研究首席科学家、爱因斯坦物理学教授安德烈亚·阿卢(Andrea Alù)表示:“这项研究表明,人类可以访问并操控过去完全无法触及的光-物质状态。通过在纳米尺度上随意开启与关闭这些隐藏态,将极大推进下一代光子与量子技术的发展,包括传感与计算。” 电场精准调控:可随需切换的新量子功能团队进一步展示了如何通过外加电场与磁场灵活调节暗激子的发光,使科学家能在芯片上微调其量子特性,以应用于光子电路、传感器与安全量子通信系统。 与过去依赖改变材料结构的方法不同,这种新技术完全保留了半导体材料本身的特性,却实现了前所未有的光-物质耦合增强。 论文第一作者、谷加明(Jiamin Quan)表示:“研究揭示了一类此前从未被观测到的自旋禁阻型暗激子,这是探索二维材料中更多隐藏量子态的开端。” 解决长期争议:等离子体结构能否增强暗激子?纳米光子学界长期争论是否能利用等离子体结构增强暗激子而不破坏其本征量子特性。本次研究通过精确设计的等离子体-激子异质结构给出了答案。团队利用纳米级六方氮化硼层,将金材料与半导体隔离开,使激子的内在结构得以保持,同时极大增强其光学响应。 该研究获得美国空军科研办公室、海军研究办公室及国家科学基金会资助。 通过让原本“黑暗”的量子光态变得明亮可控,这项成果为构建更小、更快、更节能的新一代量子与光子系统迈出了关键一步。
萨姆·奥特曼与孙正义支持一位27岁青年的“新贝尔实验室”计划
关于路易斯·安德烈(Louis Andre),互联网上的信息少得惊人——而这恰恰让他的崛起显得更加引人注目。 安德烈今年27岁,成长于欧洲,母亲是法国人,父亲来自马达加斯加。他曾在伦敦大学学院攻读神经科学与计算机科学,之后辗转于普林斯顿大学、斯坦福大学等科研机构,并在谷歌联合创始人谢尔盖·布林(Sergey Brin)支持的帕金森病相关生物科技公司任职。熟悉他的人评价其“聪明、有魅力、研究扎实”,虽然他过去的项目并非爆款,但始终潜心于科学。 然而,从本周一开始,这位默默无闻的年轻科学家将进入聚光灯中心。安德烈正式宣布成立新公司Episteme,获得OpenAI首席执行官萨姆·奥特曼(Sam Altman)、软银集团创始人孙正义(Masayoshi Son)以及多位尚未公开的投资者支持。总部位于旧金山的Episteme计划打造一个现代版“贝尔实验室”或“施乐帕洛阿尔托研究中心(Xerox PARC)”,吸引世界顶尖科学家进行自由探索式研究,孕育突破性成果。 “我们希望支持那些真正有思想、想追求有意义创意,却在现有体制下感到受限的人。”安德烈表示,“有太多天才科学家对当下的科研模式感到失望。” 从一场对话开始的理想 Episteme的起源可以追溯到几年前安德烈与奥特曼的一次谈话。两人讨论了当今科研生态的种种弊端:学术界的顶尖人才大多耗费时间在撰写基金申请、管理繁琐行政事务和论文发表上,真正的科研时间反而稀缺;而风险投资驱动的初创公司,则往往要求短期回报,难以支撑长期高风险研究。 “那时我们都在想,‘我们应该做点什么,尝试不一样的模式。’”安德烈回忆道。 Episteme的核心构想,是为科学家提供丰厚薪酬、实验资源与公司股份,让他们摆脱筹资与申报压力,专注研究。同时,Episteme配备专业团队处理知识产权、税务、人事与行政事宜,并已从盖茨基金会及美国能源部引入多名关键管理人才,帮助科学成果走向产品化。 “新贝尔实验室”的野心 贝尔实验室与施乐PARC被视为科研机构的巅峰典范——前者孕育了晶体管、激光、信息论、Unix系统与蜂窝通信技术,后者则奠定了个人计算与互联网时代的基础。它们的模式是让研究部门享有相对独立的自由,免受短期盈利压力的束缚,鼓励探索性研究。 20世纪90年代以前,美国大型科技公司仍延续这一传统。IBM、Sun Microsystems、惠普(HP)、英特尔等均设有实验室,记者每年都受邀参观科学家最新的突破性项目。近年来,谷歌的“X实验室”被认为是这种传统的延续者,但成效参差不齐。 如今,这种“自由科研乐园”几乎绝迹。企业需向股东交代季度业绩,已无余力长期资助基础研究。更多公司选择直接收购初创企业,而非自行研发。 Episteme:跨领域的科学加速器 与生物技术领域的霍华德·休斯医学研究所、怀特海德研究所或扎克伯格基金会的研究中心不同,Episteme的愿景更广——它不专注单一领域,而是吸纳跨学科的科学家。 耶鲁大学天文学系主任普莉亚姆瓦达·纳塔拉詹(Priyamvada Natarajan)作为Episteme顾问表示:“Episteme涵盖人工智能、能源、新材料、电池系统与超导体等多个方向。它借鉴了贝尔实验室和PARC的精神,但更适应当今科学语境——这是一种新型科研加速器。” 安德烈透露,公司已锁定约2,400名理想候选人,首批将招募15名科学家,研究领域包括能源、计算与神经科学。首个实验中心设在旧金山,未来计划在全球建立多处分部。 “我们考察三件事,”安德烈说,“科研的实质性、技术与执行能力,以及最重要的——他们的‘变革理论’。我们希望他们对未来有清晰愿景和深层动机。” 风险与理想并存的“科学乌托邦” 这种由投资人主导的科研机构风险不小。出资者可能因兴趣减退而撤资,科学家也可能在压力下失去自由。上周,曾获5亿美元融资、备受瞩目的Arena BioWorks被曝运营仅两年便即将关闭。 尽管如此,奥特曼与安德烈都承认Episteme具有商业目标。科学家将定期接受成果评估,公司希望通过科研成果与产品化实现自我造血。然而两人也强调,希望给予研究人员充分的时间与空间。奥特曼表示:“我不会对他们施压。科研项目成熟自有其节奏,有的需要两个月,有的需要十年。路易斯的愿景与我非常契合。” 安德烈与奥特曼均拒绝透露投资规模,但消息人士称,这并非奥特曼那类“巨额押注”项目(如Helion核聚变、Retro Bio长寿研究或World Labs世界模型)。其他富豪投资者也接受这一投资可能多年不见回报的前提。 重建科学的“第三条道路” 美国科研体制近年来遭遇重创——联邦预算削减、政治化干预、大学经费减少让众多实验室陷入困境。大量研究经费被行政管理消耗,年轻科学家面临职业不确定性。 纳塔拉詹指出:“当前正是提供这种替代方案的最佳时机。”与此同时,中国的科研体系正迅速崛起,从制造业到人工智能、生物科技都在迎头赶上,美国若继续失去科研创新优势,将付出高昂代价。 安德烈认为,问题不在人才,而在机制:“科学的瓶颈不是缺乏天才,而是缺乏让科学成果转化为社会应用的体系与执行力。Episteme的目标,是构建区别于学术界与产业界的‘第三种模式’,让科学家既能自由探索,又无需成为创业者或募款人。” 年轻的理想主义者与科学的再启蒙 Episteme首批科学家之一、本·安古洛(Ben Angulo)来自哈佛大学乔治·丘奇实验室(Church Lab),计划于2026年初在Episteme建立自己的研究室,专注基因与细胞疗法研究。“在学术界,很多有前途的项目被过早终止;若去初创公司,又会被严格的商业时间表束缚,”他解释道。 安古洛曾与安德烈在布林资助的OccamzRazor生物科技公司共事。他称安德烈“聪慧且理想主义”,并认为正是年轻使他有勇气挑战旧秩序:“要推动这种变革,必须是一个尚未被体制驯化的年轻人。” Episteme的名字源于哲学概念“知识论”(episteme),体现安德烈将文学与科学相融合的理念。他希望通过这家公司纠正“资本与人才错配”的问题。 “有些人会说这听起来太理想化,”安德烈笑道,“但在这个充满不确定的世界里,保持理想主义,恰恰是推动科学前进的必要条件。”
Anthropic比OpenAI更快实现盈利:两大AI巨头财务路线的分化
硅谷两家最大的人工智能初创公司——OpenAI与Anthropic——正走上两条截然不同的增长之路。最新披露的财务文件显示,Anthropic的盈利速度远超竞争对手OpenAI。 根据《华尔街日报》获得的文件,凭借Claude聊天机器人在代码生成与企业应用领域的表现,Anthropic预计将在2028年首次实现收支平衡。而OpenAI的预测则显示,到同一年,其运营亏损将扩大至约740亿美元——相当于收入的四分之三。OpenAI预计要到2030年才能首次实现盈利,期间现金消耗量将是Anthropic的约14倍。 两种战略:稳健增长 vs. 激进扩张 这两家估值最高的AI独角兽在今夏向投资者展示的财务蓝图,揭示了截然不同的经营哲学。Anthropic的未来五年利润率预计将显著高于OpenAI,而后者则在芯片、数据中心与人才激励上的投入远超同行。 OpenAI首席执行官萨姆·奥特曼(Sam Altman)显然正以激进方式押注未来。他的目标是将OpenAI打造为市值数万亿美元的科技巨头,引领AI时代节奏,即便这意味着承担巨大风险。该战略需要持续筹资以维持运营,一旦资本市场对AI热度降温,风险极高。 近期,投资者对科技公司AI支出增长表示担忧,市场质疑相关投入是否能在短期内转化为足够的收入,以支撑庞大的基础设施建设。 文件显示,OpenAI的财务数据统计于公司签署多项新算力协议之前。奥特曼随后在社交平台X上透露,这些新协议让OpenAI未来八年内的计算支出承诺高达1.4万亿美元,引发部分业内人士与投资者的质疑。 Anthropic:稳健路线的代表 相比之下,Anthropic采取更为保守的扩张策略,成本增长速度与收入基本保持同步。公司将重点放在企业客户身上——约80%的收入来自B端业务。Anthropic避开了图像与视频生成等高计算成本领域,转而深耕代码生成与企业应用。 Anthropic由前谷歌研究员、前OpenAI高管达里奥·阿莫代伊(Dario Amodei)于四年前创立。他在与奥特曼分歧后离开OpenAI。虽然Anthropic在ChatGPT爆红之初一度被动,但其专注企业服务的路线逐步获得回报,目前估值已达1830亿美元,而OpenAI估值约为5000亿美元。 微软、亚马逊与谷歌三大云计算巨头分别与两家公司建立了深度合作关系——微软是OpenAI的核心云服务商,亚马逊与谷歌则支撑着Anthropic的计算后端。几乎所有硅谷顶级投资机构都押注在这两家公司之一,希望抓住未来科技史上最大规模IPO机遇。 资金消耗与盈利预期的巨大反差 文件显示,2025年,OpenAI预计在实现130亿美元营收的同时,将消耗约90亿美元现金;Anthropic则在实现42亿美元营收的情况下,亏损近30亿美元,两者现金消耗率均约占收入的70%。 但到2026年,Anthropic的现金消耗率将降至收入的三分之一,而OpenAI仍高达57%。到2027年,Anthropic的燃烧率降至9%,而OpenAI几乎不变。 OpenAI的“重资产豪赌” OpenAI正进行有史以来最大规模的基础设施投资——包括芯片采购与全球数据中心建设——并计划在未来几年花费近1000亿美元建立备用算力储备,以应对潜在需求激增。公司为AI研究预留的计算资源远超Anthropic。 OpenAI近期推出了视频生成应用“Sora”、AI浏览器“Atlas”,并正在开发消费级硬件设备、电子商务与广告功能,以及拟人型机器人项目。 一名公司发言人表示:“如今AI的需求远超算力供给。我们在基础设施上的每一美元投入,都是为了支持数以亿计依赖ChatGPT的用户和开发者。” 奥特曼则在X平台发文强调:“对OpenAI而言,没有足够算力的风险远大于算力过剩的风险。” 上周,OpenAI首席财务官莎拉·弗赖尔(Sarah Friar)在一次公开讲话中表示,公司“拥有健康的利润率”,若有意愿,甚至“随时可以实现收支平衡”。她指出,企业级业务增长强劲,OpenAI仍在尝试多种新的商业模式。 总结:AI两极化战略的缩影 从财务结构上看,Anthropic选择控制支出、稳步盈利;OpenAI则押注规模与速度,以“先占领、后盈利”为逻辑。前者以企业客户为中心,后者追求全产业布局。 这场AI巨头之间的分化,或许正预示着未来人工智能行业的两种命运:一家成为“稳健的AI基础设施提供商”,另一家则试图赌赢一个价值万亿的未来。
轨道力学的奇迹:NASA如何借助轨道动力学魔法拯救下一次火星任务蓝色起源公司即将进行“新格伦”火箭的第二次发射
蓝色起源(Blue Origin)的“新格伦”(New Glenn)火箭已经滚入36号发射场,为本周末的发射做准备。因天气恶劣、邮轮误入发射禁区及地面系统问题,公司取消了周日的发射计划,并表示下一个可行窗口将在11月12日星期三,美国东部时间下午2点50分(协调世界时19:50)开启。 佛罗里达州卡纳维拉尔角——轨道动力学(astrodynamics)并非魔法学科,但有时轨迹分析师的计算成果,确实像是“从帽子里变出奇迹”。正是这种科学与创造的结合,挽救了NASA的“ESCAPADE”火星任务,使其免于漫长延迟甚至被取消。 任务概述:从险境到新路径 ESCAPADE,全称“逃逸与等离子体加速和动力学探测器”(Escape and Plasma Acceleration and Dynamics Explorers),由两颗相同的探测器组成,计划最早于本周日搭乘蓝色起源公司的大型“新格伦”火箭奔赴火星。 来自加州大学伯克利分校的项目首席研究员罗布·利利斯(Rob Lillis)表示:“ESCAPADE正在采用一种极为独特的轨道前往火星。我们这次的发射并不在传统的霍曼转移窗口(Hohmann transfer windows)内——那种窗口大约每25至26个月出现一次。任务采用了一种灵活的设计方案:先进入地球附近的等待轨道,直到明年11月地球与火星重新排成合适角度,再进行火星转移。” 这并非最初方案。任务原本打算直接从地球飞往火星,航程约需六到九个月。但如今,ESCAPADE将在火星位于太阳系另一侧、距离地球超过2.2亿英里时起飞。 延期与转机:错过窗口,但计划依旧 上一次火星发射窗口已在去年结束,下一次要等到2026年底。行星尚未排位合适,而火箭与卫星的准备工作也直到本周末才同步完成。然而,对NASA而言,这一切问题并不致命。 “新格伦”火箭的推力对于这次任务来说绰绰有余。其两级设计原本能将数吨货物送往火星,而ESCAPADE仅重约一吨,由两颗小型探测器组成,用于研究火星高层大气与太阳风的相互作用。 NASA从蓝色起源公司获得了极具性价比的发射合同——约2,000万美元,低于任何其他能执行该任务的火箭报价。作为交换,NASA接受了较高的发射风险:毕竟,这是“新格伦”火箭的第二次飞行,其尚未获得NASA或美国太空军的正式认证。 ESCAPADE本身预算也相对低廉——总成本不到8,000万美元,仅为NASA以往火星任务预算的十分之一。NASA当然不会让一枚未经验证的火箭运送价值数十亿美元的探测器,但在风险与成本平衡的前提下,ESCAPADE成为理想选择。 NASA在2023年与蓝色起源签订发射合同时,并未预料到“新格伦”会延误。首飞直到2025年1月才完成——虽成功入轨,但回收失败。经过十个月改进后,第二枚火箭终于准备就绪。 准备发射:再度挑战蓝天 目前,火箭已静候在卡纳维拉尔角太空军基地。若进展顺利,“新格伦”将在周日下午的88分钟发射窗口内升空。蓝色起源预测,天气适宜概率约为65%。 由发射总监梅根·刘易斯(Megan Lewis)带领的团队将在发射日监督整个倒计时流程。液态甲烷与液态氧将在起飞前4.5小时开始加注。终端倒计时将在T-4分钟启动,七台BE-4主发动机将在T-5.6秒点火。系统检测一切正常后,火箭将脱离固定装置,腾空而起。 火箭将在一分钟后突破音障,三分钟后分离第一级。上级两台BE-3U氢氧发动机点火,将ESCAPADE送往月球外侧的L2拉格朗日点,在那里进入等待火星转移的“驻留轨道”(loiter orbit)。 与此同时,近20层楼高的第一级助推器将尝试回收着陆——目标是大西洋回收船“Jacklyn”,以纪念贝索斯的已故母亲。 首飞时助推器坠海未能复用。蓝色起源副总裁劳拉·马吉尼斯(Laura Maginnis)表示:“我们对推进剂管理系统进行了多项改进,并增加了硬件冗余,以提高着陆成功率。”公司计划若成功着陆,将在明年初的第三次发射中重复使用此助推器。 奇特的轨迹:像肾形豆的路径 ESCAPADE的飞行路径相对地球而言呈现出一种“肾形曲线”,这类轨迹被称为“平动(libration)轨道”或“分段(staging)轨道”,能在地月系统外保持稳定,同时等待前往火星的最佳时机。 来自Advanced Space公司的任务设计师杰夫·帕克(Jeff Parker)解释道:“我们可以几乎在任何一天发射。肾形轨迹的大小会根据等待时间而调整。最后我们会绕地球进行一个小回环,随后再点火前往火星。” 两颗探测器——代号“蓝号”(Blue)与“金号”(Gold)——将在2026年11月7日与9日经过地球上空几百英里时启动主发动机,正式踏上前往火星的征途。 风险与创新:灵活的新方法 这种非典型轨道设计虽具风险,却展示了未来深空任务的灵活潜力。更长的驻留时间将使卫星暴露于更高辐射环境,同时也会消耗更多推进剂。但ESCAPADE由火箭实验室(Rocket Lab)制造,本身具备较强机动与冗余设计。火箭实验室战略副总裁理查德·弗伦奇(Richard French)指出:“NASA认为风险在可接受范围内,但确实高于常规任务。” 罗布·利利斯补充说:“这种方法展示了前往火星的全新可能。未来如果我们想一次发射上百颗探测器,就无法在短短一个月的发射窗口内完成。ESCAPADE的方案提供了新的‘排队’方式——让更多任务分批进入等待轨道,再统一启程前往火星。” 这场由轨道力学“魔法”拯救的任务,正以一种创新而务实的姿态,开启火星探测的新篇章。
从文字到世界:空间智能是人工智能的下一个前沿
人”:语言优美却缺乏经验,知识丰富却缺乏落地。空间智能(Spatial Intelligence)则将改变人类创造与互动的方式——重塑叙事、创意、机器人、科学发现乃至更广泛的世界。这正是人工智能的下一个前沿。 视觉与空间智能的追求,自学界进入此领域以来,始终是引领方向的“北极星”。正是出于这一信念,科研团队曾花费多年时间构建了 ImageNet——第一个大规模视觉学习与基准数据集,它与神经网络算法及图形处理单元(GPU)一起,成为现代人工智能的三大基石。正因如此,斯坦福大学的实验室在过去十年持续探索计算机视觉与机器人学习的结合;也因此,研究者与合作者们于2024年创立了 World Labs,旨在首次完整实现这一可能性。 本文旨在阐释何为空间智能、为何它至关重要,以及如何通过“世界模型”(World Models)释放其潜力,从而重新定义创造力、具身智能与人类进步的方式。 空间智能:人类认知的脚手架 人工智能正处于史上最令人振奋的时刻。生成式人工智能模型,如大型语言模型(LLM),已经从研究实验室走进日常生活,成为数十亿人用于创作、生产与沟通的工具。这些模型展现了昔日被认为“不可能”的能力——能生成连贯文本、复杂代码、逼真图像,甚至短视频。人工智能是否将改变世界?答案已然明确:它已经在改变世界。 然而,仍有许多能力尚未触及。自主机器人的愿景依旧停留在猜想层面,距离真正融入日常生活仍有漫长距离。AI 加速疾病治愈、新材料发现或粒子物理研究的梦想,仍未兑现。而让 AI 真正理解并增强人类创造力——无论是学习分子化学的学生、构思建筑的设计师、创作世界的电影人,还是追求沉浸体验的艺术家——这一目标依旧未能实现。 要理解为何这些能力依然遥不可及,必须追溯空间智能的进化根源。 视觉长期以来是人类智能的核心,而其力量源于更为根本的能力。远在人类能筑巢、抚育后代、以语言交流或建立文明之前,感知世界的简单行为就已悄然引发了智慧的进化之旅。 这种从外界获取信息的能力——无论是光的闪烁还是触觉的反馈——在感知与生存之间架起了桥梁。随着世代更替,这座桥梁愈发复杂:神经系统由此演化,用以理解世界并协调生物体与环境之间的互动。科学界普遍认为,感知与行动构成了推动智慧进化的核心循环,也是自然创造出人类——这一感知、学习、思考与行动的顶点物种——的根基。 空间智能定义了人类与物理世界交互的方式。日常生活中,人类依赖它完成看似平凡的动作:停车时想象车尾与路沿间的距离,接住抛来的钥匙,穿过人群而不相撞,或在半梦半醒间将咖啡倒入杯中。更极端的情况下,消防员在烟雾与坍塌中导航,凭借空间直觉判断结构稳定性与逃生路线;儿童在学会语言之前的岁月里,则通过与环境的游戏探索世界。这些行为都自然、直觉且自动完成——这是机器尚未达到的流畅度。 空间智能同样是人类想象力与创造力的基础。从洞穴壁画到现代电影,从虚拟游戏到元宇宙,叙事者通过空间想象构建世界。无论是堆沙堡的儿童还是在电脑上构筑 Minecraft 世界的玩家,空间化的想象都支撑着现实与虚拟的互动体验。在工业应用中,对物体、场景与动态环境的模拟已成为设计、制造、数字孪生与机器人训练等核心环节。 历史上,空间智能推动了无数文明进步的关键时刻。古希腊学者埃拉托色尼通过测量影子的角度推算地球周长;哈格里夫斯通过并排布置多轴纺锤发明了“珍妮纺纱机”,极大提高了生产效率;沃森与克里克则通过搭建三维分子模型,发现了 DNA 的双螺旋结构。这些成就都离不开对空间结构与物理关系的思考——而这超出了语言所能描述的范畴。 空间智能是人类认知的支架。它存在于观察与创造的每一刻,驱动着推理与规划,构成了人与环境、人与人之间的交互基础。 然而,今日的人工智能尚未真正具备这种能力。 尽管多模态大模型(MLLM)已在视觉理解与生成上取得突破,但在空间推理上仍远不及人类。它们在判断距离、方向、大小等方面的准确率接近随机,无法进行空间旋转、路径规划或预测基本物理规律。AI 生成的视频常在数秒后失去连贯性。 人类对世界的理解是整体性的——不仅看到事物本身,还理解它们之间的空间关系与意义。而空间智能正是这种理解力的核心:让思维、想象与行动结合,从而与真实世界相连。没有空间智能的人工智能,无法真正驱动汽车、引导机器人在医院或家庭中工作,也难以创造沉浸式学习体验或加速科学发现。 哲学家维特根斯坦曾说:“语言的界限意味着世界的界限。”而对人工智能而言,世界不止于语言。空间智能代表着超越语言的前沿——它连接想象、感知与行动,让机器能够以全新方式扩展人类能力,从医疗到科学,从艺术到日常生活。 未来十年:构建真正具备空间智能的机器 构建空间智能 AI,需要超越语言模型的雄心:发展“世界模型”(World Models)。这种模型不仅要理解语义,更要在物理、几何与动态层面生成并交互于复杂的虚拟或真实世界。 空间智能世界模型具备三大核心特征:一是生成性(Generative)——它们能创造感知上、几何上与物理上连贯的虚拟世界;二是多模态性(Multimodal)——能从文字、图像、视频、动作等多种输入中理解与生成世界;三是交互性(Interactive)——能根据输入动作预测世界的下一状态,乃至下一步行动。 这是一项前所未有的挑战。语言是人类认知的生成产物,而世界遵循复杂的物理规律:重力、光学、结构与能量共同决定一切互动。要让模型在语义、几何、动态与物理层面保持一致,需要彻底革新的架构与算法。 为实现这一目标,World Labs 正在开展多个方向的研究:——开发类似“下一个词预测”的通用任务函数,用于世界建模训练;——构建更复杂的数据体系,结合互联网图像、视频与合成数据,并引入深度与触觉信息;——探索超越二维序列的新型架构,例如三维与四维感知模型,使 AI 拥有空间记忆与持续生成能力。 World Labs 已发布首个世界模型原型“Marble”,允许用户通过多模态输入生成并探索一致的三维世界。这是通向空间智能的重要一步。 用世界模型建设更好的世界 人工智能的发展动机至关重要。AI 应增强而非取代人类能力。它的价值在于延伸人的创造力、连接力与生产力。空间智能正体现这一理念——让科学家、创作者、护理者与梦想家实现曾经不可能的目标。 空间智能的应用正跨越不同时间尺度:短期内推动创意工具与沉浸式叙事;中期内强化机器人感知与行动循环;长期则将在科学、医疗与教育中带来革命性影响。 在创造力方面,空间智能将重塑叙事方式,使电影人、设计师、建筑师与游戏创作者能够快速构建可探索的三维世界;在机器人领域,它将赋予机器具身智能,使其感知、推理与行动协同一致;在科学研究中,它能模拟实验、探索极端环境;在医疗中,它可加速药物研发与诊断过程;在教育中,它能创造让学习者身临其境的互动体验。 最终目标始终一致:让 AI 扩展人类智慧、加速发现、增强关怀,而非取代人类独有的判断、创造与同理心。 结语 过去十年,人工智能已成为全球现象,重塑科技、经济与地缘政治。然而,真正驱动这一切的,仍是图灵七十五年前提出的问题——那份对智能本质的好奇。 历史上,人类首次有机会创造出能与物理世界深度协调的机器,让它们成为应对重大挑战的伙伴。无论是在实验室中加速疾病研究,还是在艺术与故事中扩展人类表达,或是在脆弱时刻提供支持,这项技术都正让生活变得更深刻、更丰富、更有力量。…