OpenAI 首席执行官 Sam Altman 周一通过内部备忘录向员工宣布,公司正式进入 “code red(红色警戒)” 状态,将把主要精力集中在提升 ChatGPT 的品质上,并因此推迟其他产品线的工作。此举被视为 OpenAI 迄今最明确的信号,表明公司正面临来自竞争对手日益加剧的压力。 备忘录指出,ChatGPT 的日常使用体验仍有大量工作需要改进,包括: 竞争压力:Google 的反击最令 OpenAI 关注 Altman 特别强调来自 Google 的威胁。Google 上月发布的最新 Gemini 大模型在行业基准测试中全面超越 OpenAI 的现有模型,并推动公司股价大幅上涨。 Gemini 生态的增长速度也令 OpenAI 警惕: 此外,OpenAI 还受到 Anthropic 的压力,后者在企业客户中越来越受欢迎。 财政压力同步增加:庞大投资 vs. 未兑现的收入 OpenAI 已承诺未来将投资数千亿美元用于数据中心建设,但外界担忧这些投入何时能转化为真正的营收。 尽管 CFO Sarah Friar 在 11 月公开活动上表示 IPO 不在近期计划内,公司命运仍与 Nvidia、微软、甲骨文等生态伙伴高度绑定。 “红色警戒”意味着什么?产品线被迫让路 备忘录显示,OpenAI 将推迟以下项目: Altman 鼓励团队之间进行临时调配,同时为负责提升…
Author: aitrendtrackers@rengongzhineng.io
谷歌、英伟达与 OpenAI
一条常见的解释认为,《星球大战》之所以能在上映近半个世纪后仍然大获成功、产生持久共鸣,是因为它几乎完美呈现了“英雄之旅”。故事里有被困在塔图因星球、生活无聊的卢克,他收到 R2-D2 带来的神秘求救信息,这是冒险的召唤,而他一开始拒绝回应;导师欧比旺引导他跨出离开塔图因的门槛,踏入充满试炼的旅程,结识新的敌人与盟友。他进入“洞穴”——死星,在经历欧比旺之死这一重大考验后逃出,带着死星的设计图前往反抗军,并为重返死星的“归途”做准备。在最终试炼中,他选择相信“原力”,并以此完全蜕变。而如果把视角放大到整部原初三部曲,会发现那只是这段英雄旅程的扩展版:这一次,“至暗时刻”的考验是整部《帝国反击战》。 在过去三年的 AI 故事中,扮演英雄角色的是两家公司:OpenAI 和英伟达。第一家是凭借 ChatGPT 的发布,被视为下一个伟大消费科技公司的初创企业;第二家则是原本以“游戏显卡公司”著称、由一位充满远见与乐观精神的创始人带领、常年经历景气循环,如今则在 AI 革命中摇身一变,成为最关键的基础设施提供者。 然而在过去两周,这两家“英雄”同时进入了属于自己的“洞穴”,面对各自迄今为止最严峻的考验:谷歌这座“帝国”,正在上演自己版本的《帝国反击战》。 谷歌的反击谷歌的第一记重拳是 Gemini 3:这款模型在一系列基准测试中超越了 OpenAI 当时的最先进模型(尽管在真实使用体验上表现稍显参差)。Gemini 3 最大的优势在于其规模与训练过程中投入的海量算力;这点尤其值得注意,因为 OpenAI 在继续打造超越 GPT-4 体量与复杂度的下一代模型时遇到了困难。支撑 OpenAI 继续前进的,是在推理能力上的真实突破,这在许多场景下带来更好的结果,但代价是时间与成本的上升。 Gemini 3 的成功,看上去一度是英伟达的利好。有分析将英伟达列为该发布会的赢家,理由是: 一方面,英伟达似乎是输家,因为世界上最好的模型并非在其芯片上训练完成,这从根本上证明了——确实可以在不支付英伟达溢价的情况下造出顶级模型。 另一方面,英伟达又有两个乐观理由。首先,所有人现在都必须对 Gemini 做出回应,而且是“立刻”,而不是等自家芯片“足够好”的某个未来时间点。谷歌在十年前就开始投入 TPU 的研发;其他公司如果想追赶,短期内仍然更适合继续依赖英伟达。其次,也正因为如此,Gemini 再次证明,想要追赶甚至超越,最重要的因素仍然是更多算力。 不过,上述分析漏掉了一个关键问题:如果谷歌开始对外出售 TPU,把它变成英伟达的替代品,会发生什么?谷歌现在正这样做——先是与 Anthropic 达成合作,又传出与 Meta 的合作传闻,然后是第二波“新云服务商”(neocloud):其中很多原本是加密矿工,如今利用手里的电力与基础设施转型切入 AI。 很快,英伟达也被推到了瞄准镜前:市场开始重新审视其长期增长空间,尤其是考虑到其高企的利润率是否还能维持,一旦出现真正能与之抗衡的芯片对手,这个疑问就格外尖锐。这也无形中给 OpenAI 下一轮预训练施加了巨大压力——那一轮训练将基于英伟达的 Blackwell 芯片进行:基础模型仍然非常重要,OpenAI 需要给出更好的基础模型,而英伟达则需要证明,顶级模型仍然可以在自家芯片上诞生。 接下来值得思考的是:在谷歌的反击下,哪家公司的风险更大,以及原因何在? 从表面看,英伟达正赚得盆满钵满,如果 Blackwell 表现优秀,那么下一代 Vera Rubin 有望更上一层楼;此外,尽管…
AI agent应该更“有主见”
在优秀的智能体(Agent)产品中,最成功的往往不是“最灵活”的,而是“最有主见”的。本文探讨了原因与设计原则。简而言之,建议如下: 构建有主见的智能体。在工具设计与提示词(Prompt)上果断做出决策。目标是让智能体在特定任务上成功,而不是在所有任务上平均发挥。可定制化可以稍后再考虑。 “灵活性陷阱”:智能体需要的是更少的旋钮,而非更多 优秀的产品设计不在于提供无穷选项,而在于让一切自然顺畅地工作。智能体也应如此。 历史上所有令人愉悦的产品体验,本质上都是创作者将自己的理念高度提炼成“无需调试、即刻可用”的界面。对智能体而言,这意味着: “主见—反馈—评估”三者形成了智能体设计的飞轮:团队在实践中形成观点,用户反馈帮助修正观点,评估数据则让迭代有依据。 原则落地:用户不想调温度,他们只想结果 没有用户愿意调整“temperature”或“chunking strategy”。这正是所谓的“灵活性陷阱”——误以为用户想要选择,实际上他们只想要成果。 史蒂夫·乔布斯设计 iPhone 的“一键界面”就是经典案例:表面上限制了交互方式,实则极大提升了体验的确定性。产品依旧功能丰富,但交互路径变得直观可靠。 Cursor 团队的设计哲学很好地诠释了这种思维: “这个设置真的需要吗?”“能更少点点击完成吗?”“能砍掉哪些没人用的功能?” 这正是智能体产品应有的思考方式。 做好“有主见”的工作 具体而言,团队应当: “通用智能体”的神话 一个智能体 = 有主见的外壳(Harness) + 模型(Model) 所谓“外壳”,是指包裹模型的一层设计:包括提示词、工具、上下文管理、文档、子智能体(Subagents)等。所有“主见”都体现在这一层。 当人们说他们想要“通用智能体”时,其实是在做一种权衡: “我愿意接受较低的任务表现,以换取更少的定制工程投入。” 这在原型验证阶段或许合理,但很多团队选择“通用”,并非出于设计策略,而是尚未明确自己的立场与偏好。 模型与外壳是不可分割的 一个重要观点:模型与外壳是共生的,不能单独评估。 每个模型的“智能”都有明显的尖刺(spiky intelligence)——擅长某些任务、在另一些任务上表现糟糕。因此,当更换模型时,原本调校好的外壳往往会“崩坏”:提示词行为变化、工具调用失败、新的错误模式出现…… 真正关键的问题是: “这个模型 + 外壳组合,能否稳定完成我的任务?” 而不是: “这款模型在最新基准测试中是否得分更高?” 这就是为什么团队必须依靠真实任务、真实用户和自我试用来验证效果。 起点应“深而窄” 如果“通用”是妥协,那么最佳策略是从深而窄的任务入手: 常见两种错误倾向: 最优点是“窄到可以精细打磨,深到足以产生价值”。先找到那 10% 的高价值任务,集中精力攻克它。 连模型实验室也在变得“有主见” 如今,各大模型公司(如 Anthropic)也在为特定领域打造专门团队。并非要训练新的金融或生命科学专用模型,而是要为这些任务优化外壳与工具体系。 这种“任务导向的主见性设计”比堆参数更能带来稳定表现。Claude Code、Codex 等产品正是如此:在外壳层面内置上下文管理、文件系统、子智能体,让用户无需从零配置。 类似地,LangGraph、LangChain 提供了通用抽象,而后来的 DeepAgents 则在其上进一步加入了“有主见的预设”:文件系统支持、内置规划工具、默认提示等。好的默认值(opinionated…
AlphaFold 的下一步:与谷歌 DeepMind 诺贝尔奖得主的一次对话
执行摘要2017 年,刚完成理论化学博士学位的约翰·贾姆珀(John Jumper)听说谷歌 DeepMind 正从超人级游戏 AI 转向一个秘密项目——预测蛋白质结构。他立即申请加入。 三年后,他与 CEO 戴密斯·哈萨比斯(Demis Hassabis)共同领导的团队推出了 AlphaFold 2,一种能够在原子级精度范围内预测蛋白质三维结构的 AI 系统。它不仅达到了实验室技术的准确度,还将实验时间从数月缩短到数小时。 AlphaFold 2 破解了一个生物学界困扰五十年的难题。哈萨比斯曾表示:“这正是我创立 DeepMind 的初衷,也是我毕生投身 AI 的原因。”2024 年,贾姆珀与哈萨比斯因这项突破性成就共同获得诺贝尔化学奖。 五年前 AlphaFold 2 横空出世,如今热潮渐息,它的真正影响如何?科学家们如何使用它?未来又将走向何方?贾姆珀在访谈中给出了答案。 “这是令人难以置信的五年” 贾姆珀笑言:“我几乎忘了在认识成千上万记者之前的生活是什么样。” 自 AlphaFold 2 之后,团队先后推出了可预测多蛋白结构的 AlphaFold Multimer 以及更快速的 AlphaFold 3。DeepMind 还将其用于 UniProt——一个全球数百万科学家维护的蛋白质数据库。目前,AlphaFold 已预测了约 2 亿个蛋白质 的结构,几乎覆盖已知的全部生物蛋白。 尽管如此,贾姆珀依然保持谨慎:“我们并不确定所有预测都是对的。那是一个预测数据库——它附带所有预测的限制条件。” 一个极难的问题 蛋白质是生命的“机器”:它们构成肌肉、羽毛和角,运送氧气,传递信号,驱动神经活动、免疫反应和消化过程。理解蛋白质的功能首先要弄清它的结构,而这是生物学中最棘手的难题之一。 蛋白质由氨基酸链组成,这些链在化学力作用下折叠成复杂的三维形状。一个未折叠的序列几乎无法透露最终结构,而理论上每个蛋白质都可能有天文数量的构象。预测其正确形状,堪称计算地狱。 贾姆珀和团队采用了基于 Transformer 架构 的神经网络——这也是如今大型语言模型(LLM)的基础技术。Transformer 善于在庞大信息中捕捉关键关联。 然而,他认为真正的成功在于快速迭代的实验原型:“我们做出了一个能以惊人速度给出错误答案的系统,这反而让我们能大胆尝试各种想法。” 他们向模型输入了尽可能多的蛋白质结构信息,包括跨物种形态的演化模式。结果超出了预期——“我们立刻意识到自己取得了突破,”贾姆珀说,“这是一次理念上的巨大飞跃。”…
为什么最优秀的工程师开始在外面面试
2018年,一家年收入四千万美元的SaaS公司的一名资深工程师,花了六个月时间反复指出新数据库架构无法扩展。产品部门坚持快速上线,工程领导虽同意他的判断,却未向产品部门据理力争。最终决定是:“先上线,后重构。” 那一周,这位工程师开始投简历。促使他离开的,并非技术决策本身——类似的决策在行业中屡见不鲜——而是他的专业判断被忽视。八个月后,系统开始每天出现性能问题。十八个月后,公司已失去五名资深工程师,并聘请兼职CTO调查根因。 诊断结果十分明确:高管层直到工程师离职才知道他们不满。离职面谈的理由被记录为“更好的机会”“更有竞争力的薪资”。CEO批准了15%的加薪以挽留剩余工程师,但仍不断有人离开。真正的问题并非薪酬,而是组织内部的信息无法自下而上传递。当问题到达高层时,早已演变为几个月前就做出的离职决定。 替换这五名工程师的成本约为140万美元,包括招聘支出、生产力损失与知识流失。若高层早些了解问题,保留成本仅为其中一小部分。然而他们并不知情,因为初级工程师告诉了资深工程师,资深工程师告诉了经理,而经理认为无需上报。最终,高层成为最后一个知道真相的人。 层级结构会过滤坏消息组织设置层级以管理复杂性,但其副作用是信息在每一层都会被过滤。一个初级工程师向资深工程师提到技术隐患,资深工程师再向经理反映,经理斟酌后判断此事是否影响自己业绩或是否值得上报。工程副总裁若听到,已是经过润饰的版本;CTO得到的结论是“我们正在处理”;CEO听到的只有“进展顺利”。 每一层都在消减细节与紧迫感。当问题抵达高层时,要么已成危机,要么已被过滤干净。过滤并非出于恶意,中层普遍认为“在自己层级解决问题”是职责所在,若上报则被视为能力不足。于是他们汇报“解决方案”而非“问题本身”,这看似专业,实为信息压制。 一家拥有120名工程师的软件公司是典型案例。三月,前端团队发现新仪表板性能问题;四月,工程师在代码评审中公开讨论;五月,工程经理知晓并开始调查;六月,工程副总裁获悉,但听到的版本是“正在优化性能”;七月,CTO只被告知“有些性能工作在进行”;八月,最大客户抱怨仪表板不可用。高层将此视为突发危机,而工程师们早已知道整整五个月。 最终导致的后果是:做资源分配决策的人基于数月前、且被系统性删减了坏消息的信息行事。工程师在八月知道数据库无法扩展,经理十月感知到不满,副总裁十二月发现士气问题,CTO到次年二月才得知离职潮。每一层都以为自己处理得当,却共同制造了信息延迟,使问题彻底无解。 “指挥链”的虚幻信条许多组织认为“越级沟通”——高管直接与基层工程师交流——是不合适的。理由如出一辙:削弱中层权威、破坏指挥链、营造不信任感、或表现出微观管理倾向。这些理由表面上出于组织健康,实则是中层为逃避问责的自我保护机制。 直接与基层工程师交谈的CTO能听到真实情况;依赖层层报告的CTO只能听到管理层希望他们听到的内容。越级沟通的禁忌确保了后者。中层偏好这种结构,因为信息流的控制权掌握在他们手中,可以呈现“已解决的问题”,掩盖“暴露自身问题的事”。组织为此付出代价——信息延迟使小问题积累成危机。 反对越级沟通的经济学理由是:高管时间昂贵,应聚焦战略事务而非战术细节。但若战略决策基于错误信息,这种逻辑就站不住脚。一个每周花数小时与不同层级工程师交流的CTO,能了解真正阻碍生产力的根因、正在失效的技术路线、以及哪些人已在心理上离岗。这类信息具有直接的战略价值。相比之下,依赖经过三四层过滤的报告,虽“成本低”,却极易导致昂贵的错误决策。 这类时间投入其实并不巨大。每周安排几小时直接交流即可。规模扩大后,单人频率可降,但覆盖面应保持。例如CTO可每季度与每位工程师沟通一次。这样既能保持对现实的触感,又不挤占日程。参加这些对话的工程师,往往透露他们从未向直属上级提过的问题。管理层可提前三至六个月发现潜在风险,从而以更低成本介入。 一家支付公司在一个季度内失去三名资深工程师后,新任CTO推行“每周开放时间”,允许任何工程师预约30分钟谈话,无需议程或批准。第一个月便暴露出三个问题:部署系统不稳定、监控报警泛滥且无效、API文档严重过时。所有经理都以为“自己在处理”。CTO在同一季度拨款解决,六个月后自愿离职率降至接近零。 离职的真因:自主权,而非薪水离职面谈中最常提及的薪资原因往往掩盖了真正的问题。薪酬之所以常被引用,是因为它可量化且不具冒犯性;而实际原因更隐蔽、更棘手。三种模式屡见不鲜: 一是失去自主权。工程师被迫构建他们明知会失败的系统,专业判断一再被无视。预测的失败最终成真时,他们反被指责未能预防。这不是自尊问题,而是专业被询问却被忽略的挫败。 一家金融科技公司决定自研认证系统,资深工程师警告风险,却被产品坚持压下。系统上线首月即爆出三处安全漏洞,耗费半年修补与维护。本可创造40万美元年收入的功能被延误。公司自研花费18万美元,而商用方案年费仅1.2万美元。最终,失去的工程师本可为公司带来近58万美元价值。 二是技术债务无法偿还。团队反复提出数据库复制、自动化部署、监控改进等基础需求,却总被功能开发压下。工程师预见故障时间点却无力阻止,只得提前离开,避免在崩溃时背锅。一家电商公司十八个月拖延数据库优化,导致第十九个月平台性能崩溃,响应时间从200毫秒暴涨至4秒,收入损失120万美元。两名资深工程师早已离职。 三是聪明人被迫做无意义的工作。高级工程师被分派维护陈旧系统、重复无价值流程。结果是高薪低产、才智浪费。某SaaS公司一名年薪19万美元的工程师,用六成时间维护仅带来8万美元收入的报表系统。她建议迁移客户,却被以“战略关系”为由驳回。三个月后离职,替代者招聘成本22万美元。 高层错过的早期信号离职征兆在辞职信送达前半年甚至更早就存在,只是层级不同,察觉时间不同。 初级与中级工程师最早察觉:资深工程师不再辩论,架构评审沦为形式,技术债务积压无人分配。资深工程师表面顺从,实则已心灰意冷。 资深工程师的转变发生在离职前四至八个月:识别失败模式、经历道德伤害、失去信任。他们在会议上不再发言,代码评审简化为“LGTM”。管理层误以为他们变得“成熟”“更好合作”,其实他们已心理离岗。 经理在离职前两至四个月看到行为变化:参与度下降、LinkedIn更新、文档异常完善、积极指导他人。这些往往被误读为“积极表现”,实为交接信号。 高管层真正看到的阶段,是“工程师已递辞职信”。届时所有信息早已存在,只是被层级过滤。 为什么一次离职会引发连锁反应一次离职只是信号,三次则成为风向。工程师看到同侪离开,会开始怀疑:是否他们知道什么自己不知道?外部猎头嗅到气息,迅速介入,离职潮蔓延。一家云基础设施公司三周内两名工程师离职,三个月后又失去五人,损失220万美元,项目延误八个月。 知识流失的代价难以量化,却在后续数月显现为低效、错误与返工。失去的工程师知道系统隐患、客户特例、哪些技术债务是“负载承重”的。 当离职确实与薪资有关时薪资确为诱因的情况存在,但信号明确:工程师在求职前主动提出薪资问题,且确实低于市场水平。而若在离职面谈中才以此为由,往往是借口。判断标准简单:若加薪20%能挽留,则确为薪资问题;若不能,则另有根因。多数因自主权丧失、技术债务或无意义工作而离开的工程师,无法用金钱留住。 预防比补救更重要防止离职潮的关键在于:高层需在问题萌芽期获取真实信息。这意味着要建立绕过层级过滤的通道。实践证明,以下方式有效: ——定期越级沟通:每周花数小时直接与各层级工程师交流,重在持续而非频率。某百人工程团队的CTO每周四小时越级访谈,半年覆盖全员,离职率由18%降至7%。 ——外部诊断机制:由兼职CTO或外部顾问访谈团队,因其不具权威威胁,反馈更真实。一家SaaS公司在半年失去四名资深工程师后引入顾问,发现“架构评审”实为甩锅仪式。取消后并赋予工程团队技术否决权,问题迅速缓解。 ——立即行动:倾听不够,必须让工程师看到结果。一家医疗科技公司CTO听到开发者抱怨测试套件耗时45分钟,当周拨款优化至8分钟,投入1.2万美元,却极大提升信任度。 错误诊断的140万美元代价替换一名资深工程师的成本高达27.5万至39.5万美元,包括招聘、生产力损失与知识断层。五人即损失约140万至200万美元。而真正解决留任问题的代价只是路线调整与流程改革。 障碍不在于资金,而在于承认系统有缺陷、管理可能有责。多数公司宁愿相信“市场竞争激烈”,而非承认“内部机制失灵”。 一家B轮公司十八个月内流失七名工程师。CEO以为是市场薪酬竞争,实则五人曾明确提出技术与流程问题,却被中层拦截。高层以为问题是钱,工程师认为问题是信任,双方都被信息隔离误导。 信息比替换便宜离职工程师掌握高层未知的真相:哪些技术决策失灵、哪些流程浪费时间、哪些管理方式令人疏离。这些信息本就存在,只是被层级过滤。优秀的组织选择在工程师离开前了解真相,而不是事后支付代价。 他们把信息流视作战略资产,建立越级沟通,优先获取“真实地面情况”。他们明白,基于真相的决策回报率远高于依赖虚假汇报的战略思考。每年投入约五万美元的高管时间,即可防止多次离职潮,避免数百万的损失。 那位2018年离职的资深工程师如今在另一家公司任职。该公司CTO定期越级沟通,并赋予工程部门架构否决权。那里几乎无人在面试,主动离职率仅12%,为行业平均值的一半。高层能在问题变得不可挽回前得知真相——他们做到的原因很简单:他们会问,员工敢说,因为组织结构允许真相向上流动。
人工智能芯片ASIC vs. Nvidia GPU
英伟达(Nvidia)首席执行官黄仁勋近日表示,公司最新的Blackwell系统销售“超乎想象”,创下历史新高。然而,业内分析师指出,另一类人工智能芯片——被称为ASIC(专用集成电路,Application-Specific Integrated Circuit)——正以惊人的速度增长。谷歌、亚马逊、Meta、微软以及OpenAI等大型科技公司,正在纷纷投入自研ASIC芯片,以摆脱对英伟达GPU的高度依赖。 根据《芯片战争》(Chip War)作者克里斯·米勒(Chris Miller)向CNBC透露,谷歌的TPU(Tensor Processing Unit,张量处理单元)是当前AI领域ASIC芯片的领导者,其技术水平甚至被认为与英伟达GPU相当,甚至可能更优。与此同时,亚马逊、微软及OpenAI等公司也在快速推进自研AI芯片项目。 英伟达凭借GPU(图形处理器)实现了利润的爆炸式增长,成为全球市值最高的科技企业之一。过去一年,英伟达交付了约600万颗新一代Blackwell GPU,这些芯片在AI计算负载中发挥了核心作用。该公司在加州圣克拉拉总部展示了由72块Blackwell GPU组成的GB200 NVL72机架级服务器系统——每台服务器售价约300万美元,每周出货量约1000套。英伟达高管狄昂·哈里斯(Dion Harris)表示,数年前,当团队首次提议使用八块GPU打造AI系统时,外界普遍认为“规格过剩”,如今这种配置已成为主流。 GPU最初主要用于游戏图形渲染,但自2012年学术界利用英伟达GPU训练神经网络模型AlexNet以来,GPU的用途迅速扩展至人工智能领域。GPU在并行计算方面的优势使其非常适合AI模型的训练与推理。目前,GPU通常与CPU配合部署于数据中心中,用于AI云计算任务。英伟达与其主要竞争对手超威(AMD)通过优化各自的软件生态体系(如英伟达的CUDA平台与AMD的开源框架)持续竞争。英伟达不仅向亚马逊、微软、谷歌、甲骨文(Oracle)等云服务商供货,还直接向AI公司(如OpenAI)及各国政府提供GPU系统。 然而,AI产业的重心正逐渐从GPU转向ASIC。与通用型GPU相比,ASIC芯片更为小巧、能效更高,且针对特定AI任务进行了优化。谷歌在2015年率先推出首款TPU,开启了AI加速器ASIC时代。经过十年发展,谷歌于2025年11月发布第七代TPU——Ironwood版本。Anthropic宣布,其大语言模型Claude将基于多达100万个TPU进行训练。分析人士认为,谷歌未来可能会开放TPU的外部使用权限,进一步打破市场格局。 亚马逊则在2015年收购以色列芯片初创企业Annapurna Labs后,迅速布局自研AI芯片,推出了Inferentia(2018年)与Trainium(2022年)两款ASIC。亚马逊AWS的芯片架构负责人罗恩·迪亚曼特(Ron Diamant)表示,Trainium在价格性能比方面领先市场30%至40%。在印第安纳州的新AI数据中心中,超过50万颗Trainium 2芯片正在用于Anthropic模型训练,而其他AWS数据中心则仍以英伟达GPU为主。 微软、Meta及OpenAI也相继宣布定制AI芯片计划。微软目前已在美国东部数据中心部署自研Maia 100芯片;Meta于2023年推出自家Training and Inference Accelerator;OpenAI则与博通(Broadcom)合作,预计2026年起生产专用ASIC。博通与迈威尔(Marvell)等芯片设计商凭借专业的知识产权与网络技术,成为众多AI企业的合作伙伴,并在AI浪潮中获益显著。 与此同时,AI计算正从云端向终端设备延伸。被称为“边缘AI芯片”的新型处理器正集成在手机、笔记本电脑及智能家居设备中,使AI运算能在本地完成,从而降低延迟并保护隐私。神经处理单元(NPU)是该领域的核心组件。高通、英特尔、AMD以及苹果都在推动NPU的应用。苹果的M系列与A系列芯片均内置神经引擎,用于MacBook与iPhone上的AI功能。三星、高通的最新移动芯片以及汽车与机器人用嵌入式AI芯片,也均依赖此类技术。 此外,可编程逻辑门阵列(FPGA)作为一种可通过软件重新配置的芯片,也在AI计算中占据一席之地。虽然性能与能效不及ASIC或NPU,但其灵活性极高。AMD在2022年以490亿美元收购赛灵思(Xilinx)后,成为全球最大的FPGA制造商;英特尔则凭借2015年167亿美元收购Altera位列第二。 无论GPU、ASIC、NPU还是FPGA,这些AI芯片的制造几乎都依赖台积电(TSMC)。台积电在美国亚利桑那州的新工厂已开始大规模生产芯片,苹果与英伟达均在此投产。黄仁勋确认,Blackwell GPU已在该厂“全面量产”。 尽管竞争者众多,业内专家认为,英伟达的领先地位短期内仍难以撼动。Futurum Group分析师丹尼尔·纽曼(Daniel Newman)指出,英伟达凭借十余年的生态建设与开发者基础,赢得了当前的AI芯片王者地位,“他们赢得了开发者生态,也赢得了市场”。
人工智能芯片ASIC vs. Nvidia GPU
英伟达(Nvidia)首席执行官黄仁勋近日表示,公司最新的Blackwell系统销售“超乎想象”,创下历史新高。然而,业内分析师指出,另一类人工智能芯片——被称为ASIC(专用集成电路,Application-Specific Integrated Circuit)——正以惊人的速度增长。谷歌、亚马逊、Meta、微软以及OpenAI等大型科技公司,正在纷纷投入自研ASIC芯片,以摆脱对英伟达GPU的高度依赖。 根据《芯片战争》(Chip War)作者克里斯·米勒(Chris Miller)向CNBC透露,谷歌的TPU(Tensor Processing Unit,张量处理单元)是当前AI领域ASIC芯片的领导者,其技术水平甚至被认为与英伟达GPU相当,甚至可能更优。与此同时,亚马逊、微软及OpenAI等公司也在快速推进自研AI芯片项目。 英伟达凭借GPU(图形处理器)实现了利润的爆炸式增长,成为全球市值最高的科技企业之一。过去一年,英伟达交付了约600万颗新一代Blackwell GPU,这些芯片在AI计算负载中发挥了核心作用。该公司在加州圣克拉拉总部展示了由72块Blackwell GPU组成的GB200 NVL72机架级服务器系统——每台服务器售价约300万美元,每周出货量约1000套。英伟达高管狄昂·哈里斯(Dion Harris)表示,数年前,当团队首次提议使用八块GPU打造AI系统时,外界普遍认为“规格过剩”,如今这种配置已成为主流。 GPU最初主要用于游戏图形渲染,但自2012年学术界利用英伟达GPU训练神经网络模型AlexNet以来,GPU的用途迅速扩展至人工智能领域。GPU在并行计算方面的优势使其非常适合AI模型的训练与推理。目前,GPU通常与CPU配合部署于数据中心中,用于AI云计算任务。英伟达与其主要竞争对手超威(AMD)通过优化各自的软件生态体系(如英伟达的CUDA平台与AMD的开源框架)持续竞争。英伟达不仅向亚马逊、微软、谷歌、甲骨文(Oracle)等云服务商供货,还直接向AI公司(如OpenAI)及各国政府提供GPU系统。 然而,AI产业的重心正逐渐从GPU转向ASIC。与通用型GPU相比,ASIC芯片更为小巧、能效更高,且针对特定AI任务进行了优化。谷歌在2015年率先推出首款TPU,开启了AI加速器ASIC时代。经过十年发展,谷歌于2025年11月发布第七代TPU——Ironwood版本。Anthropic宣布,其大语言模型Claude将基于多达100万个TPU进行训练。分析人士认为,谷歌未来可能会开放TPU的外部使用权限,进一步打破市场格局。 亚马逊则在2015年收购以色列芯片初创企业Annapurna Labs后,迅速布局自研AI芯片,推出了Inferentia(2018年)与Trainium(2022年)两款ASIC。亚马逊AWS的芯片架构负责人罗恩·迪亚曼特(Ron Diamant)表示,Trainium在价格性能比方面领先市场30%至40%。在印第安纳州的新AI数据中心中,超过50万颗Trainium 2芯片正在用于Anthropic模型训练,而其他AWS数据中心则仍以英伟达GPU为主。 微软、Meta及OpenAI也相继宣布定制AI芯片计划。微软目前已在美国东部数据中心部署自研Maia 100芯片;Meta于2023年推出自家Training and Inference Accelerator;OpenAI则与博通(Broadcom)合作,预计2026年起生产专用ASIC。博通与迈威尔(Marvell)等芯片设计商凭借专业的知识产权与网络技术,成为众多AI企业的合作伙伴,并在AI浪潮中获益显著。 与此同时,AI计算正从云端向终端设备延伸。被称为“边缘AI芯片”的新型处理器正集成在手机、笔记本电脑及智能家居设备中,使AI运算能在本地完成,从而降低延迟并保护隐私。神经处理单元(NPU)是该领域的核心组件。高通、英特尔、AMD以及苹果都在推动NPU的应用。苹果的M系列与A系列芯片均内置神经引擎,用于MacBook与iPhone上的AI功能。三星、高通的最新移动芯片以及汽车与机器人用嵌入式AI芯片,也均依赖此类技术。 此外,可编程逻辑门阵列(FPGA)作为一种可通过软件重新配置的芯片,也在AI计算中占据一席之地。虽然性能与能效不及ASIC或NPU,但其灵活性极高。AMD在2022年以490亿美元收购赛灵思(Xilinx)后,成为全球最大的FPGA制造商;英特尔则凭借2015年167亿美元收购Altera位列第二。 无论GPU、ASIC、NPU还是FPGA,这些AI芯片的制造几乎都依赖台积电(TSMC)。台积电在美国亚利桑那州的新工厂已开始大规模生产芯片,苹果与英伟达均在此投产。黄仁勋确认,Blackwell GPU已在该厂“全面量产”。 尽管竞争者众多,业内专家认为,英伟达的领先地位短期内仍难以撼动。Futurum Group分析师丹尼尔·纽曼(Daniel Newman)指出,英伟达凭借十余年的生态建设与开发者基础,赢得了当前的AI芯片王者地位,“他们赢得了开发者生态,也赢得了市场”。
谷歌AI基础设施主管表示:为满足需求,公司必须每6个月将AI服务能力翻倍
在最近的一次全员大会上,谷歌人工智能基础设施负责人阿明·瓦赫达特(Amin Vahdat)向员工表示,公司必须以“每六个月翻倍”的速度扩充AI计算与服务能力,才能满足全球对人工智能服务的快速增长需求。 瓦赫达特现任谷歌云(Google Cloud)副总裁,负责机器学习系统与云端AI基础设施。他在名为“AI基础设施”的演讲中展示了一张题为“AI计算需求”的幻灯片,上面写道:“现在我们必须每六个月翻倍……在未来4至5年实现1000倍增长。” 瓦赫达特指出,AI基础设施的竞争是“整个AI竞赛中最关键、同时也是最昂贵的部分”。在这场会议上,谷歌母公司Alphabet首席执行官桑达尔·皮查伊(Sundar Pichai)与首席财务官阿娜特·阿什克纳齐(Anat Ashkenazi)也一同出席并回答了员工提问。 这场会议召开于Alphabet公布强劲的第三季度财报之后一周。公司连续第二次上调年度资本支出预测至910亿至930亿美元区间,并预计2026年将出现“显著增长”。微软、亚马逊和Meta同样上调了资本支出预期,这四大科技巨头今年的总投入预计将超过3800亿美元。 瓦赫达特强调,谷歌的任务“当然是构建出顶级基础设施”,但并非“盲目超越竞争对手的支出规模”。他补充说,公司将投入巨额资金,但真正目标是打造“全球最可靠、性能最佳、可扩展性最强的AI基础设施”。 除了基础设施的扩建,谷歌还通过更高效的AI模型与自研芯片提升算力利用率。上周,谷歌宣布正式发布第七代张量处理器(TPU)“Ironwood”,其能效比2018年第一代云端TPU提升近30倍。瓦赫达特表示,谷歌还拥有DeepMind作为重要优势,后者在未来AI模型架构研究方面提供了前瞻性支持。 “谷歌必须在基本不增加成本和能源消耗的前提下,实现计算、存储和网络能力的千倍提升,”瓦赫达特说,“这并不容易,但通过协同设计与跨部门合作,我们将实现这一目标。” 皮查伊:2026年将是“极度紧张的一年”在同一场会议上,皮查伊坦言,2026年将成为公司极具挑战的一年,原因在于AI竞争的加剧与云计算需求的爆发。他同时回应了员工关于“AI泡沫”潜在风险的提问。 有员工提问称:“面对大规模AI投资与外界对AI泡沫破裂的担忧,公司如何确保长期的可持续性与盈利能力?” 皮查伊表示,这种担心“是合理且广泛存在的”。他指出,当下的讨论反映了行业的集体焦虑,但他依然强调“不足投入的风险更高”。皮查伊提到,谷歌云业务在最新季度实现了34%的年增长,营收突破150亿美元,积压订单达1550亿美元。 “事实上,若我们拥有更强的计算能力,这些数字本可以更亮眼。”他补充道。皮查伊表示,公司将继续遵循纪律性的投资方式,并凭借健康的资产负债表在波动中保持稳定。 “我们比其他公司更有能力承受市场波动带来的短期冲击,”皮查伊说。 市场动荡与AI泡沫争议皮查伊也提醒员工:“未来一年会出现起伏不定的局面。”他强调,目前正处于竞争白热化阶段,“绝不能躺在功劳簿上”。 近期,关于“AI泡沫”的讨论在硅谷与华尔街愈发激烈。英伟达(Nvidia)财报发布前,投资者对AI领域持续巨额投入的合理性产生疑虑。皮查伊在接受BBC采访时也提到,当前市场“存在一定程度的不理性”,并承认“如果泡沫破裂,没有任何公司能完全幸免,包括谷歌自己”。 然而,英伟达首席执行官黄仁勋在财报会议上否认了“AI泡沫论”,并称公司看到的是“完全不同的现实”。英伟达作为谷歌的重要芯片供应商,当季营收增长62%,超出市场预期,并发布强劲的下一季度指引。尽管如此,市场整体情绪依旧疲软,次日英伟达股价下跌3.2%,纳斯达克指数下跌2.2%,Alphabet股价亦下跌1.2%。 算力瓶颈与Gemini 3发布本周早些时候,谷歌发布了最新一代AI模型Gemini 3,声称其在回答复杂问题方面的表现优于前代产品。谷歌与OpenAI等竞争对手正在竞速,将先进的AI工具推向更广泛的用户群体。 皮查伊指出,当前最大瓶颈在于算力供给不足。他以视频生成工具Veo为例解释道:“Veo上线时非常令人振奋,但如果我们能为更多用户提供访问,使用人数将会显著提升——然而我们受限于计算能力。” 资本支出与现金流问题另一位员工提问提到:“资本支出的增长速度远快于营业收入,公司未来18至24个月的自由现金流将如何保持健康?” 首席财务官阿什克纳齐回应称,公司拥有多项潜在增长途径,包括吸引更多传统数据中心客户迁移至云端服务。她表示:“摆在我们面前的机遇巨大,我们不能错过这一势头。” 总体而言,谷歌管理层的核心信号十分明确:AI竞争的焦点已经从算法创新转向基础设施规模与能效比的极限挑战。为实现未来四至五年“1000倍算力提升”的目标,谷歌正在押注其芯片、云计算与研究协同能力,努力在这场昂贵而激烈的AI基础设施之战中保持领先。
暂停路线图工作一周,我们修复了189个漏洞
周五下午4点,一位工程师刚刚关闭了本周的第12个漏洞。此时大脑几乎已经烧坏,但盯着“漏洞排行榜”时,却对周一回到常规工作感到一丝难过——这很奇怪,因为常规工作本身是令人喜爱的。然而,“Fixit周”(修复周)总是让人心生特别的情感。 什么是Fixit?在这个团队中,每个季度约有45名软件工程师会停下所有常规工作整整一周。这意味着没有路线图任务、没有设计讨论、没有会议或站会。 取而代之的,是集中修复那些长期困扰用户与开发者的“小问题”: 规则非常简单:1)每个漏洞的修复时间不得超过两天;2)所有工作都必须聚焦于用户端的小改进或开发者体验的提升。 团队还设立了一个“积分系统”和排行榜,按照修复漏洞的数量与难度计分。修复首个漏洞、修复最恼人漏洞、积分最高者等都会获得印有团队标志的T恤。简单的规则,却运作得极为顺畅。 成果统计在本季度的Fixit周中: 团队还绘制了燃尽图,以追踪整个修复进度。 一些亮点包括:一位工程师修复了一个自2021年以来的功能请求——仅用了一天时间,而它在待办清单中沉睡了整整四年。这一改动虽然微小,却让每位Perfetto用户的体验都得到明显提升。 另一位同事只用25行代码改进了一个GitHub Action,使每位UI开发者少点击两次就能查看CI构建结果。这种简单的优化获得了团队一致好评。 此外,还有成员花一个小时(借助AI)创建了“整合版SDK”,让外部项目的集成更加便捷。这类微小改动,可能正是决定用户是否选择使用该产品的关键。 Fixit带来的价值 对产品而言:匠心与细节任何优秀产品的标志都在于细节上的打磨——那些看似微不足道的地方,却能让整体体验更连贯。一个缺乏细节关注的产品,也许能被迫使用,但用户内心始终会有“要是能换一个就好了”的念头。Fixit周正是打磨这些细节的机会——那些用户未必能明确说出的问题,但一旦修复,使用体验的流畅度立刻提升。 对个人而言:回归“动手修”的乐趣在职业早期,工程师常常能随手修复问题、立即上线并获得满足感。而随着资历增加,工作重心逐渐转向规划、协调与决策,离“亲手修好一个问题”的成就感越来越远。Fixit让人重新体验那种直接、纯粹的快乐——发现问题、修复、提交、关闭、继续前进。每一次修复都带来即时的反馈与成就。 对团队而言:士气与凝聚力Fixit周期间,40名工程师分布在两个时区共同修复漏洞,整个办公氛围焕然一新。平日里各自埋头于不同项目的成员,在这一周中频繁交流、分享截图与进展,甚至围在显示器前展示成果。排行榜与每日简报进一步激发了团队热情: 如何成功举办Fixit周 经验表明,Fixit的成功与否在于准备阶段。平日里,团队鼓励成员将遇到的潜在问题标记为“Fixit候选”。在Fixit周前一周,各小组会对这些问题进行分类: 还会列出高优先级的关键漏洞,确保第一天所有人都有明确目标,不必浪费时间寻找任务。 两天的硬性限制早期曾有成员选中一个看似简单的漏洞,却意外陷入庞大依赖与陈旧代码的泥沼,整整两周都未完成。虽然工作有价值,但完全违背了Fixit的初衷——频繁交付、保持节奏与动力。因此制定了“两天上限”:如果修复任务超出预期,就应中止并回到主干任务。这不是否定工作本身,而是为了保持Fixit的节奏与乐趣。 团队规模的关键性早期Fixit仅限于7人小组,虽然效果不错,但缺乏更大范围的共鸣。当人数达到40人后,氛围显著不同——群体能量被激活,参与感更强。对于不同团队,理想人数可能在7至40人之间,但“群体势能”是Fixit成功的核心。 游戏化的激励机制积分与排行榜不仅是噱头,还是维系动力的重要工具: 得益于良好的文化氛围,团队几乎未出现“刷分”现象。 AI工具的助力Fixit的一大挑战是频繁切换上下文,而AI工具极大缓解了这一问题。它们不仅能快速检索代码、总结修改方向,还能生成修复思路,帮助工程师以更低的心智负担进入问题域。虽然AI生成的代码往往需要人工修正,但它让每次修复的起步更高效。 对Fixit的质疑与反思有人认为Fixit是在承认团队平时忽视小问题。这种观点不无道理,确实许多“纸割型”漏洞往往被长期忽略。但Fixit正是为这些问题提供空间的机制。它并非取代常规漏洞修复,而是承认“略烦却不紧急”的问题也值得解决。 也有人质疑“暂停路线图工作一周是否浪费”。从资源角度看,40个工程师周确实成本不低。然而,产品打磨所带来的用户体验提升与团队士气的增长,往往能长期反哺生产力——无论是更快的测试、更清晰的错误提示还是更顺畅的流程,都能让收益持续累积。 当然,对于小团队或初创公司而言,一整周的Fixit可能成本过高。但这一机制可灵活缩短,如“每月一个Fixit周五”或“季度两天的微Fixit”,关键在于为“没人安排但人人抱怨”的问题预留时间。 Fixit的真正意义官方理由是提升产品质量与开发效率,但更深层的原因在于它带来的情感满足感——修复问题的纯粹快乐。这种体验让工程师重新感受到“匠人精神”的核心:关注细节、改善体验、让产品更好。虽然不应全年都如此工作,但若一个组织从未腾出时间做这些事,那才是真正的遗憾。
“良好工程管理”是一种潮流现象
随着年龄的增长,越来越多的从业者开始思考一个关键问题——自己是否正在以正确的方式花费时间,以推动职业生涯和人生的前进。这不仅是个人的反思,也是公司在每一次绩效评估中提出的疑问:这位工程经理是否有效地利用时间,为公司或团队创造了价值? 然而,令人困惑的是,这两个看似相似的问题在实践中却几乎没有交集。本文试图在当下这个特殊时期深入探讨这些问题——一个管理者被告知“过去十年都在做错事”,必须接受一种全新的工程管理模式才能继续被行业认可的时代。 作者曾在相关主题上发表过演讲,并将主要观点以视频形式记录了下来(附有演讲幻灯片)。 优秀领导力的“潮流化” 在2000年代末期的雅虎,工程管理的模式与当今截然不同。当时,一位团队主管可能两年才与下属进行两次一对一沟通,一次是入职后的初次交流,另一次是员工提出离职时的谈话。按照今天的标准,这样的管理方式会被视为失职。然而在当时,这种领导风格与《新机器之魂》中描述的管理者极为相似——识别关键机遇,引导团队克服组织阻力,推动项目向前。这类管理者在当时的背景下是高效且被认可的。 进入2010年代后,行业风向发生了转变。吸引、留住、激励工程师成为衡量领导力的核心标准。在那个资本充裕、企业高速扩张的时代,这种管理思路无疑是正确的。许多组织甚至鼓励新晋经理人“放下键盘”,彻底从编码转向管理,这在当时被认为是“好建议”。回看那一时期,这种指导虽然如今显得脱节,但确实契合了当时行业的现实需求。 而从2022年底开始,形势再度转变。高利率终结了零利率时代(ZIRP),人工智能工具的兴起使大型工程团队的必要性受到质疑。组织架构变得扁平,许多曾经专注协调的角色如今被要求重新“动手写代码”。那些在上一时代被视为典范的经理人,反而被重塑为“官僚”而非“领导者”。 这种领导理念的更迭背后,实质上是商业环境的变化。每一次转型都伴随着新的道德叙事——2010年代的叙事是“赋能工程师”是一种道德善;2020年代的叙事则是“中层官僚导致组织低效”。然而,真正的驱动力并非道德,而是商业逻辑——资本环境变化与AI生产力的崛起才是根本原因。 因此可以得出结论:行业总会在演化中重新定义“好领导”的标准,并以“道德故事”包装这种转变。但事实上,这一切几乎总是源自经济结构的变化。任何将当下的管理观念当作“真理”的人,都有可能在下一次周期转变中措手不及。换言之,“优秀领导力”本身就是一种潮流。 跨越潮流的自我发展 如果承认领导力的标准会周期性地变化,那么一个更深层的问题便出现了:怎样的技能,才能在今天行之有效,又能在未来保持长期价值? 长期与工程经理共事的经验表明,有八项基础的工程管理技能,可以分为两类:核心技能(适用于所有管理岗位)与成长技能(决定职业上限的能力)。 核心技能包括: 成长技能包括: 这些能力几乎可涵盖所有有效的管理者类型。 自我评估的思考问题 衡量这些能力没有完美的标准,但可以通过一些问题进行自我检验,例如: 这些问题的答案反映了管理者在各个维度上的成熟度。值得注意的是,如果高层从未主动邀请某位经理参与关键任务,往往意味着该经理在特定能力维度上尚未被视为“专家”。 “核心技能”是否恒久不变? 实际上,核心与成长技能的边界会随行业潮流而变化。例如,在今天的环境中,“执行力”是核心能力,而在过去的高增长时代,它的重要性则较低。这也是跨越周期最具挑战的地方:唯有在各维度上保持均衡,才能在环境剧变时不被淘汰。 保持能量以维持投入 《工程管理执行手册》中提到,理想的时间分配并非数学意义上的最优解,而是能让人保持长期动力的平衡状态。对一些人来说,这意味着继续写代码;对另一些人,则是改进流程、优化结构。维持能量,是长期高效管理的前提。 四十年的职业生涯 与能量管理类似,职业生涯也需长远规划。在《四十年职业生涯》的讨论中,每个阶段都面临不同的优先维度——速度、人脉、声望、收入、学习。早期可以追求高强度成长,晚期则可能因家庭责任而选择稳定节奏。认清这些权衡并有意识地做出选择,是塑造长期职业幸福感的关键。若缺乏这种自我认知,很难在漫长的职业道路上保持持续投入。 总结来看,“良好工程管理”并非固定的公式,而是时代经济与技术环境的产物。唯有理解潮流背后的逻辑,构建稳固而多元的技能组合,才能在不断变化的行业中立于不败之地。