上周,一个名为 Protocollie 的项目上线。整个开发过程用了4天,使用了作者并不熟悉的编程语言,也没有真正“写”代码——全是靠AI完成的。尽管许多人追问“这是怎么做到的”,但作者坦言:可能下次再做一遍也不会一样。 整个过程,就是在边走边编。 没人照着剧本走的“伟大实验” 每当一项新技术诞生时,总有个阶段是大家假装自己很懂。AI开发,现在可能已经过了那个阶段,也可能还没到。但无论如何,当下正处于一个有趣的“中间地带”——变化太快,没人能装作专家。 关于“专家”这个词,作者也有反思:成为专家需要多久?Malcolm Gladwell说是1万小时,但那是讲小提琴和国际象棋——那些规则不会每两周就变一遍的技能。而AI开发不一样,它的规则会在一夜之间彻底改写。 放眼当前,即便是世界上最有经验的AI协作程序员,也不过干了两年。这意味着所有人都是初学者。并且,随着技术飞速进化,这种“永远初学”的状态可能会成为常态。 正在运行的实验(随时可能变) 作者口中所谓的“系统”,其实并不是精心规划的,而是慢慢积累出来的。就像办公桌上堆满了文件,有一天突然发现“咦,这像是个归档系统”。 一开始,是一个文档——记录AI Claude对架构的理解,以免重复讲解。接着第二个文档出现了——因为同样的问题反复出现,需要集中解决。然后是第三个——因为流程也在重复,于是干脆整理下来。再之后是第四个——因为项目里嵌套着许多“小故事”,它们需要一个容器。 这四个文档的出现,并不是因为“四”是最优解,只是碰巧在第四个的时候停下了。 有时候,作者也怀疑:是不是只是在“扮演程序员”?就像小朋友玩“过家家”,假装“这个文档是架构”、“这个过程是正式流程”、“我们好像知道自己在干什么”。 但结果是真实的——软件能编译、能运行、有人在用。或许,这种“假装”本身就是关键?也许,所谓的方法论,本质上就是一种“大家共同相信的虚构”,恰好能产出结果。 四份文档的简要介绍: 在AI时代中的“时间扭曲” Protocollie开发的第一个星期天,作者体验到了一种全新的工作方式。他一边喝咖啡、一边随手测试Claude生成的代码,确认能运行就提交,再说一句“现在帮我写服务器UI”,然后离开。 吃早饭的时候,Claude在写代码。陪孩子玩的时候,Claude在写代码。看电视的时候,Claude还在写代码。 每隔一小时回来检查五分钟,提一句反馈,“记住上次连接的服务器”,再继续日常生活。 这就像是拥有了一个勤奋、专注、永不走神的初级程序员,对方每分钟能输出上万字,永远不会分心刷推特。 整个星期天,作者真正“工作的时间”可能不到90分钟,其余时间都是Claude在工作,而自己只是偶尔出现做决策,或者测试一下。 这种“时间扭曲”打破了作者对工作的所有认知模型: 有时候,这甚至让人感到内疚。好像在“作弊”。仿佛某位Hacker News上的老手随时会跳出来说:“请停止边做煎饼边开发软件,这不合规,请回到你应有的挣扎中去。” 关于“扔意大利面” 作者最近向一位朋友比喻说,AI开发现在还处于“往墙上扔意大利面”的阶段。对方纠正说:“你是说看哪根粘住吧?”“不,”作者说,“重点根本不是粘住与否,重点是‘扔’的动作。” 每个怪异的流程、每次失败的尝试、每个“不该成功但它成功了”的时刻,都是我们这个时代共同实验的“数据点”。作者的“四文档系统”只是那些恰好组成一个可以辨认图案的面条组合。明天它也许就会滑下墙面——没关系,到时候再扔。 “编程”到底意味着什么? 作者从HTML手工排表的时代一路走来,亲历了每一波技术抽象的演进:从汇编到C,从C到Java,从Java到Ruby,再到如今的“我说出想法,它就实现”。 但这次的变化,不只是又一层抽象,它是完全不同的东西。 Protocollie的构建过程中,作者既不是在“编程”,也不是“非编程”。他甚至不知道该怎么定义这个行为。 今天的核心技能,已经不是语法、算法,甚至不是系统设计了。而是类似于:“具象的渴望”、“精确的想象”、“结构化的愿望”。 四份文档,变成了哲学反思 回头看,作者意识到这些文档本质上不是技术文档,而是关于记忆与遗忘的哲学产物: 也许所有的文档,本质上都是写给未来那个迷茫的自己的留言。 不确定的高原期 所有人又变成了“初级程序员”。但不是传统意义上“终有一天会变资深”的那种,而是一种永久性的初级状态——技术的演化速度,远快于经验的积累速度。 就像在一片物理法则不断变化的海洋上冲浪。刚学会了浪怎么起,它就开始横着来、倒着走,甚至变成了飞鸟。 对于某些人来说,这是恐惧;而对另一些人,则是解放。 接下来会怎样? 没人知道。作者也不确定下周会做什么、怎么做、还会不会用文档,甚至怀疑现在的这些系统是否还有意义。 但这种不确定性,作者已经学会接受——甚至喜欢上了。 在这个时代,每个开发者同时都是专家(对自己那套怪流程)也是新手(对下一波变化)。四天能完成原本需要数月的工作。最重要的能力,变成了**“清晰表达自己的想法给一个比你还快的打字手”**。 作者的四份文档,不是标准,不是模板,只是过去某个星期的化石。已经过时,已经开始令人怀念。 正是这种感觉,让此刻变得如此充满电流:人们在退潮的海滩上建起一座座沙堡,知道海水终将归来。但此时此刻,他们正兴高采烈地创造着属于这一刻的软件。 明天,也许有人会发明“三文档系统”。或“五文档系统”。甚至完全不写文档,只靠愿望。 而这些可能……也会起作用。 那四份文档?现在已公开在GitHub上了。不是范式,也不是手册,更像是考古学材料:“2025年的某个星期,有人曾这样干过一次。” 读一读也好。看着困惑也好。然后丢开,走自己的路。 它们不是指南,只是一个佐证:某种做法,曾经奏效过。 就像远足时看到的别人的路标——知道有人走过这条路很有帮助,但以为这就是自己的路,可能就错了。
Author: aitrendtrackers@rengongzhineng.io
Meta公司的“44人名单”近日遭到泄露
Meta公司的“44人名单”近日遭到泄露,引发了科技行业内广泛关注与讨论。这份名单被认为是科技史上最为大胆的一次AI人才收购行动,由Meta首席执行官马克·扎克伯格亲自挑选,囊括了来自OpenAI、DeepMind、Apple、Anthropic等顶尖实验室的多位人工智能领域的核心研究人员。该团队被视为Meta打造通用人工智能(AGI)计划的核心力量,标志着其正积极挑战OpenAI与Google DeepMind在AI领域的领先地位。 “44人名单”指的是什么?该术语目前主要流传于行业内部,指的是一份非官方但广泛传播的文档,列出了Meta超级智能实验室(Superintelligence Labs)团队的44位核心成员。名单的流出始于多位OpenAI等公司的知名研究人员相继辞职,而Meta随后宣布组建统一的超级智能实验室,引发了业界对于人才流动与AI战略格局的高度关注。 尽管Meta尚未正式发布这份名单,外泄信息显示出以下几个关键特征: 该名单被业内普遍视为Meta在AI人才争夺战中的宣战书。 团队成员有哪些人?目前部分成员身份已经被路透社、Business Insider、《连线》杂志和《金融快报》等媒体确认或公开报道,包括但不限于: 尽管完整名单尚未公开,但已有约20至25位成员被各大权威媒体所证实。 名单的国际组成与“华人主导”的关注点名单中一个备受关注的焦点是成员背景的国际化。其中约50%具有华裔血统,尽管大多数成员受教育于美国与欧洲,这一结构已引起美国政界与监管机构的关注。在Meta加大海外数据中心建设投入、不断扩大其在全球AI影响力的背景下,该团队的构成被赋予更多地缘政治意味。 与此同时,该名单中仅包含两位印度裔成员(Trapit Bansal和Hammad Syed),尽管印度长期以来是AI人才的重要输出国。 高额薪酬与人才争夺战Meta方面虽否认部分极端说法,但多位业内人士透露,一些参与OpenAI核心架构研发的工程师确实获得了九位数的待遇。某份内部流出文件显示: “超级智能实验室的一般研究员年薪在1000万美元至6000万美元之间,核心成员的薪酬则更高。” 如此惊人的薪酬结构引发了对“AI人才外流”的激烈讨论,尤其是OpenAI、Apple与Google在人才保留方面的压力正在持续加剧。 这份名单为何至关重要? Meta超级智能团队核心数据一览: 指标 数据/估算 成员总数 44人 华裔成员比例 50% 前OpenAI成员比例 40% 博士学历占比 约75% 平均薪酬范围 1000万至6000万美元 印度裔成员人数 2人(Trapit Bansal与Hammad Syed) 研究重点 大型语言模型、多模态系统、强化学习、推理能力 已公开确认成员 约20至25人 Meta的“44人名单”不仅是一份技术人员列表,更是AI格局深刻重构的象征,其背后的战略意图、全球布局与人才战术正深刻影响着人工智能的未来走向。
OpenAI开发的一款实验性大型语言模型(LLM),在2025年国际数学奥林匹克竞赛(IMO)中达到了金牌水平
由OpenAI开发的一款实验性大型语言模型(LLM),在2025年国际数学奥林匹克竞赛(IMO)中达到了金牌水平,标志着人工智能推理能力的又一重要里程碑。 OpenAI研究员Alexander Wei在社交平台X上宣布了这一成果。他表示:“OpenAI最新的实验性推理语言模型,已实现了人工智能领域长期以来的一大挑战:在世界最具声望的数学竞赛——国际数学奥林匹克中取得金牌水平的表现。” 据介绍,该模型的评估完全按照人类参赛者的标准进行,包括两场各4.5小时的测试、不允许使用工具或连接互联网,并且需要针对IMO官方试题书写详细证明过程。最终,该模型成功解答了6道题中的5道,获得了42分中的35分。每道题由三位前IMO金牌得主独立评分,最终成绩在一致认同下确定。 IMO竞赛题目被广泛认为是竞赛数学领域中最具挑战性的题目,往往需要参赛者进行长时间、极具创造性的推理。对此,Wei指出,这是AI在推理基准测试上逐步取得突破的延续:“从GSM8K(人类大约0.1分钟解答)→ MATH基准(1分钟)→ AIME(10分钟)→ IMO(100分钟),我们已经走了很长一段路。” 他进一步指出,IMO题目的难度要求模型具备前所未有的持续创造性思维能力,该成果也反映出“通用强化学习与测试时计算扩展”方面的进展。 尽管取得了突破性的表现,该模型在短期内不会向公众开放。Wei表示:“这款获得IMO金牌的LLM是一个实验性研究模型,近期内不会发布任何具备这种数学能力的系统,至少还需几个月时间。” 与此并行,OpenAI计划很快推出GPT-5,但IMO竞赛能力模型属于另一个研究方向。“GPT-5即将发布,我们对此感到非常兴奋。”Wei透露。 与此同时,Hyperbolic Labs联合创始人Yuchen Jin也在X上暗示,GPT-5的发布可能已经迫在眉睫。据他透露,GPT-5并非单一模型,而是由多个专用模型构成的系统,并配备有一个动态路由器,可以根据任务在擅长推理、非推理以及工具使用的模型间智能切换。 Jin指出,这种架构可能正是OpenAI首席执行官Sam Altman此前所说的“修正模型命名”的原因,因为用户将无需手动选择具体模型,系统会自动将提示指向最合适的模型。 此外,Jin还透露,GPT-6目前已经进入训练阶段,并希望该过程不会因为更多的安全测试而被延迟。 Wei也提及了此次突破的更深层意义:“这进一步说明AI在近年发展速度之快。2021年,导师Jacob Steinhardt让我预测到2025年7月AI在数学上的进展,当时我预测的是MATH基准的正确率达到30%……而如今,我们已经实现了IMO金牌。” 在这一成果背后,Sheryl Hsu、Noam Brown等研究人员也被特别提及并给予了高度评价。 而在去年,谷歌DeepMind旗下的AlphaProof与AlphaGeometry 2也曾在国际数学奥林匹克中解出6题中的4题,获得相当于银牌选手的得分,显示出AI数学能力正在多个维度快速提升。
Meta斥资150亿美元打造“超级智能实验室”,引发硅谷史上最昂贵的AI人才争夺战
Meta创办人马克·扎克伯格(Mark Zuckerberg)以大胆下注、力图重塑整个产业而著称,尽管这种策略有时也以高昂代价告终。继元宇宙计划耗资460亿美元却收效甚微后,这位科技巨头如今再度加码,押注人工智能中的终极目标——“超级智能”(Superintelligence)。 这一次,风险更高,竞争更激烈,潜在回报更具颠覆性。扎克伯格的AI押注,不仅远超元宇宙时期的资金投入,更以九位数薪酬和基础设施投资,掀起了硅谷有史以来最昂贵的人才争夺战。这场战役最终可能确立Meta在AI时代的霸主地位,也可能成为另一个野心勃勃却误入歧途的反面教材。 Meta超级智能实验室的诞生 Meta超级智能实验室(Meta Superintelligence Labs)的成立,标志着这家社交媒体巨头战略方向的重大转变。在接受《The Information》旗下TITV直播专访时,扎克伯格透露:“今年最令人兴奋的事情,是我们开始看到模型具备自我改进的初步迹象——这意味着超级智能的实现已在视野之内。” 为此,Meta重组整个AI部门,目标是实现“为全球每一个人提供个人超级智能”(Personal Superintelligence)。这一实验室的创立也被视为对过去内部AI团队低效管理、员工流失与产品反响平平等问题的回应。 扎克伯格选择彻底改革而非渐进优化,不仅从外部引入领导力量,也重新定义了公司研发AI的方式。 硅谷最昂贵的人才战? Meta的超级智能愿景,以极具冲击力的人才战略为核心。为组建这一实验室,扎克伯格开启了一轮史无前例的高薪挖角行动,向来自OpenAI、Google、Apple和Anthropic等公司的顶尖研究员,开出高达一亿美元以上的薪酬。 在面对有关1至2亿美元年薪的传闻时,扎克伯格并未直接否认,而是表示:“虽然具体数字未必准确,但这是一个极为火热的市场……顶尖研究员的数量很少,各家实验室都在争抢。” Meta不仅靠高薪吸引人才,扎克伯格强调:“我们基本为每位研究员提供最强的计算资源,这不仅利于工作开展,也是吸引人才的关键优势。”这一策略凸显出超级智能竞赛中,“人才密度”比团队规模更为关键。 亚历山大·王:价值143亿美元的赌注 Meta人才战略的核心,是对AI初创公司Scale AI的巨额投资。今年6月,Meta以143亿美元取得该公司49%股份,并将其创办人亚历山大·王(Alexandr Wang)及其核心团队纳入Meta高层。 年仅28岁的王,如今已担任Meta首席AI官,主导“Meta超级智能实验室”的整体工作。他带领十余位新聘研究员、Scale的多位副手,以及GitHub前CEO纳特·弗里德曼(Nat Friedman)组成新领导层。 这支团队与Meta主力团队分开办公,办公室靠近扎克伯格本人,显示该项目在公司战略中的核心地位。 哲学转向:从开源走向闭源? 最引人注目的变化之一,是Meta可能放弃其长期坚持的开源哲学。据悉,王及实验室核心成员上周曾讨论,是否应放弃开源模型“Behemoth”,转而开发闭源模型。 这将是Meta在AI路线上的重大转折。过去数年,该公司一直倡导开源,认为让更多开发者参与其中,能加快技术演进并促进公平访问。 此次转变反映出Meta对竞争格局的担忧。目前,“Behemoth”模型已完成训练数据输入,但由于内部性能表现不佳,尚未发布。这一挫折促使高层重新评估开源策略。 基础设施:下一场竞争的护城河 除了人才争夺,Meta也在基础设施建设上加大投入,力求支撑超级智能的研发需求。扎克伯格透露,公司正在建设多个“多吉瓦级”的数据中心,甚至使用“防风雨帐篷”以加速施工。 其中“Hyperion”数据中心未来规模将达五吉瓦,场地面积堪比整个曼哈顿城区。如此庞大的投资得益于Meta稳健的现金流,扎克伯格表示:“这些项目完全可由公司的自由现金流支持。” 个人超级智能:与众不同的愿景 与其他实验室致力于“自动化社会中所有经济活动”不同,Meta的愿景聚焦于“个人生活的意义”,包括关系、文化、创意与乐趣。 扎克伯格在专访中表示:“我们关心的是如何用AI来帮助人们更好地享受生活。”这一理念与Meta的硬件布局——尤其是AR眼镜项目——紧密相关。 他甚至预测:“未来没有AI眼镜,你将处于认知劣势。”并设想AI伴侣将“观察用户生活,主动提醒与跟进事务。” 产业影响与竞争动态 Meta的超级智能行动,对整个行业已产生重大影响。其高薪策略带来了AI领域的薪资膨胀,迫使其他公司提高报酬以留住核心人才。 在提及与竞争对手在Sun Valley峰会的互动时,扎克伯格虽强调“我们并未有意针对任何人”,但业内普遍认为,这实际上是一场零和博弈:争夺有限的顶尖AI研究员。 Meta转向闭源的可能性,也预示着行业整体将更加倾向于专有开发,放弃“开源共享”式的协作路径。 总结:Meta的决定性时刻 Meta的超级智能计划,代表着对公司未来发展方向的全面重塑。继元宇宙失利后,扎克伯格再次押上重金,这次的投入预计将在未来数年内超过1000亿美元。 Meta超级智能实验室的成败,将不仅影响公司自身命运,也将左右整个AI产业的走向。随着内部部分未入选王团队的员工表达跳槽意愿,项目的成败已不容小觑。 扎克伯格的这场豪赌能否兑现技术突破,尚未可知。但毫无疑问,硅谷史上最昂贵的一场人才争夺战,已经打响。
大型语言模型的白日梦循环
尽管大型语言模型已经展现出令人惊叹的能力,但至今尚未取得真正意义上的突破性发现。这引发了一个耐人寻味的疑问:为什么会这样? 有一种可能的解释是,这类模型缺乏人类思维的一些根本特征:它们是静态的,无法从经验中持续学习,也没有类似人脑“默认模式网络”(Default Mode Network, DMN)那样的后台处理机制——而这恰恰是人类灵感和顿悟的重要来源之一。 为了应对这一局限,有研究者提出了一种称为“白日梦循环”(Day-Dreaming Loop, DDL)的设想。这是一种在背景中运行的过程,持续地从模型的记忆中抽取两个概念的组合,由生成模型探索它们之间非显而易见的联系,再由评估模型筛选出具有真正价值的创见。这些被识别出的想法将被重新注入系统的记忆中,形成一种复利式的反馈机制:新生成的想法又成为未来概念组合的种子。 不过,这一机制所需的代价——即所谓的“白日梦税”(daydreaming tax)——可能非常高昂,因为从大量组合中发现有价值的新颖点的命中率极低。然而,这种“浪费”可能正是创新的必要代价。同时,这也为模型蒸馏(model distillation)设置了障碍,因为白日梦机制所产生的洞见往往是无人会主动提出的问题。 从战略角度来看,这一结论具有反直觉的意味:为了让 AI 对终端用户来说更加高效且低成本,或许必须先建构那些大多数算力都用于无用搜索的“昂贵系统”。未来,可能会出现一类专用于生成专有训练数据的高成本白日梦型 AI,而真正面向大众的,是继承其成果的高效、小型模型。这种路径,可能为穿越即将到来的“数据壁垒”提供一条出路。 美国作家威廉·费菲尔德(William Fifield)在1964年的一篇综合访谈中,曾引用毕加索的一句话作为回应当时兴起的“电子大脑”现象:“但它们没用。它们只能给出答案。”这句话意味深长,似乎也道出了当前 LLM 研究的瓶颈。 在播客主持人帕特尔(Dwarkesh Patel)看来,至今尚未有任何大型语言模型展现出真正出人意料的突破性洞察,哪怕它们具备极高的知识密度和测试分数。这是一个真正的谜题——因为在提示适当时,这些模型似乎能以令人振奋的方式整合信息,几乎接近“洞察”的边缘,但始终未能跨越那一关键点。究竟缺少了什么? 有两项关键的“缺失能力”被认为是原因之一: 一、持续学习(Continual Learning) 当前主流 LLM 都是冻结状态的神经网络(frozen NNs),即在部署后不再发生参数更新。这意味着它们无法进行动态的再训练,也无法从新的经验中获得反馈。尽管“动态评估”(dynamic evaluation)等技术早已存在并可用于在线学习,但主流 LLM 并未采用。 因此,它们常常困在自身的“先验”知识中,无法摆脱初始猜测和显而易见的答案。人类历史中从未有任何一个患有顺行性遗忘症(anterograde amnesia)的人能创造出重大创新,而 LLM 恰恰面临类似状况。 二、持续思考(Continual Thinking) 另一项区别则是人类研究者从不停止思考。人脑即使在睡眠中,也在不断处理信息,这部分解释了为何大脑在静息状态下也消耗大量能量。 科学与创造力研究强调时间与睡眠在激发“孵化效应”(incubation effect)方面的重要性。人类的灵感往往并非出现在主动思考时,而是在放松或“放空”时突然出现。这种“涌现思维”的例子数不胜数:从过时的冷笑话到错过的暗示,从突如其来的焦虑想法到意外的灵感闪现。 这些思维的爆发往往是无意识且不可预测的,与当前所专注的任务毫无关联。例如,一位作者正在撰写游戏美学的文章时,突发灵感想到了“LLM 的默认模式网络应该是什么样子”这一问题,从而催生了这篇设想。 假设:白日梦循环机制(Day-Dreaming Loop) 那么,这种思维过程是如何、何时、何地发生的? 显然,它并非发生在显意识中,且通常是在无意间发生的。这是一种普遍现象,并不易耗尽:即便历经几十年,许多人仍然定期体验到这些突发念头。它可能是生物学上昂贵的过程,因为其本质涉及复杂的计算和神经资源消耗。推测多数动物并不具备类似“灵光一现”的能力。 其机制可能是并行的,因为人脑可能同时在多个神经通路中进行概念组合。它可能部分与海马体在睡眠中进行的记忆重播过程相关,但又不完全等同,因为白日梦式的思考也常发生在醒着时处理短期记忆的过程中。 此外,它可能被集中注意力的任务所抑制。例如,研究者发现,在专注阅读或编码时,这种突发想法几乎停止;而一旦暂停,灵感就如潮水般涌来。 因此提出了“白日梦循环”这一模型:人脑在空闲时随机提取两个记忆片段进行组合,并对结果进行评估,若认为“有趣”,便晋升为显意识,甚至可能写入长期记忆。这一机制虽然简单,却可能是人类创新的核心引擎。 研究者指出,不需要复杂的高阶组合就能实现持续创新,因为一旦新的组合进入知识库,它就会生成更多潜在的新组合。在经济创新模型中,查尔斯·琼斯(Charles I. Jones, 2021)也曾展示,即使“低垂果实”被优先采摘,创新仍然可以持续增长,甚至呈指数爆炸。 不过,该机制也极为浪费,大多数组合毫无价值,难以优化。由于人脑会随时间改变,过去被判断为无趣的组合在将来可能变得有价值,因此也必须反复检查。 LLM…
光环效应(HALO Effect)
2025年7月15日,Kevin 在一篇题为《光环效应》的文章中,深入剖析了当今人工智能行业中一种新兴但尚未被广泛命名的交易结构趋势。他称这种结构为“HALO”交易,意即 “Hire And License Out(聘用并授权)”,并指出它正在逐渐改变硅谷对于并购和招聘的传统认知。 文章指出,在过去一年中,Inflection、Character AI、Adept、Covariant、Windsurf 等公司采用了一种新颖的交易模式:收购方聘用初创公司核心团队(通常包括创始人与研究人员),同时获得其知识产权的非独家授权。而初创公司则通过收取高额授权费,向员工与投资人派发红利。令人困惑的是,这些初创公司在创始人离开后仍继续运营,由新的管理层接手。 这种结构并非传统意义上的“收购”或“acquihire”(人才并购),因为收购方并未买下公司,只是招聘了团队并取得 IP 授权。它更像是一种混合形式——既包含招聘特征,也具备部分资本退出收益,却又不完全归类为任何传统模式。 HALO 的本质与结构 HALO 本质上是一种“变形的招聘”行为。虽然法律上只是员工的跳槽,但通过设置高额的授权费用并分发红利,其财务效果对初创公司股东来说几乎等同于一次收购。为了合法合规,原公司(称为“remain co”)必须保持独立运营状态,这就造成了外界对 HALO 的误解和混乱。 文章强调,HALO 并非试图破坏创始人、员工与投资人之间的社会契约,反而是对这种契约在新环境下的一种保护机制——就如同过去 acquihire 曾在资金困难时帮助创始人让员工“软着陆”,HALO 也是在新的反垄断监管背景下寻找一种“合法又能回报股东”的方式。 acquihire 的演化 Kevin 将 HALO 视为 acquihire 的演化形式。过去,acquihire 通常发生在初创公司资金耗尽之际,创始人愿意通过加盟大公司来确保投资人尽可能收回资本,也为员工争取职位。但其经济学逻辑始终让人困惑:为什么不直接挖人?为什么还要“包公司”? 答案之一,在于硅谷长期形成的社会契约与行业惯例。创始人往往会考虑对投资人与员工的责任,即便没有法律义务。这正是 HALO 想要延续的精神。 而与过去不同的是,HALO 所吸引的团队不再是“迫于生计”的创业者,而是手握 IP、产品、有极强战略价值的核心团队。因此,出价可以更高,结构也更加复杂。 HALO 的优势与挑战 HALO 交易速度极快、确定性强。其主要优势在于绕过监管审查,不受政府反垄断审查干扰——在当前收购政策高度敏感的环境下,这成为极具吸引力的选项。 但与此同时,HALO 在结构上仍不成熟,存在许多“未定义领域”: Kevin 提出,未来 HALO 若要长期存在,必须像 SAFE 一样成为标准化协议,形成清晰的默认条款。例如: 为何 HALO 出现在 AI…
关于 OpenAI 的反思
离开 OpenAI 三周后,这位前员工分享了对在这家全球瞩目的人工智能公司工作的深刻反思。他于 2024 年 5 月加入 OpenAI,并在一年后选择离开,这段经历被描述为个人职业生涯中最具启发性的一年。 这篇文章的目的,是希望通过亲身经历补充关于 OpenAI 的真实声音。虽然围绕这家公司存在许多公众猜测与外部喧嚣,但对于其内部文化的第一手记录却相对稀少。因此,借鉴 Nabeel Quereshi 对 Palantir 的回顾风格,本文尝试以真实细致的角度,捕捉 OpenAI 当前阶段的特质。 文章开篇明确指出,离职并非源于任何个人纠纷。实际上,作者对离开颇感矛盾。从创业者身份转变为 3,000 人规模企业中的一名员工,是一项挑战。在经历一段令人兴奋的技术旅程后,这位工程师渴望新的开始。尽管如此,他并未排除未来回归的可能,尤其是因为在 OpenAI 所参与的工作极具影响力,诸如 Codex 的发布等项目,使他深感幸运与骄傲。 公司文化 OpenAI 的成长速度惊人。加入时公司仅有约 1,000 名员工,短短一年后已增至超过 3,000 人,员工流动率极高,许多领导岗位都由在过去两三年内快速晋升的员工担任。如此迅猛的扩张,必然导致沟通、组织架构、产品交付、人力管理和招聘流程方面的问题。 不同团队文化差异巨大:有的团队高速冲刺,有的专注于执行大型模型运行,有的则保持稳定节奏。研究、应用与市场(GTM)团队工作节奏截然不同,因此很难用单一经验来定义 “OpenAI 文化”。 值得注意的是,OpenAI 几乎完全依赖 Slack 作为内部沟通平台,基本上没有使用电子邮件。这种运行方式若管理不当,极易令人分心,但若精心筛选频道和通知,则可以实现高效运作。 OpenAI 在研究领域尤其强调自下而上的文化。起初询问公司未来一季度的路线图时,得到的回答是“并不存在”(虽然后来确实制定了计划)。许多创意来自基层人员,而且往往无法预见哪些点子最终最有价值。进展多依赖迭代,而非预设的大型战略。 这种文化也造就了公司极强的能力导向氛围。领导层的晋升更多基于创意与执行力,而非公开演讲或政治手腕。在很多情况下,真正有价值的想法会被采纳,无需复杂流程审批。 OpenAI 有强烈的执行导向文化。多个团队可能在没有明确协调的情况下同时探索类似项目,例如早期的 ChatGPT Connectors 和多个 Codex 原型。这些项目通常由少数几人发起,在显露潜力后迅速吸引团队支持。 研究负责人 Andrey 曾形容,研究员应像“小型高管”一样,自主推进项目。研究往往通过“激发兴趣”方式推进:若问题被认为乏味或已解决,很少有人主动接手。 优秀的研究经理在整合研究成果、推进大型模型训练方面作用巨大。类似地,顶尖的产品经理也是推动力的核心。例如 ChatGPT 的…
人工智能正逐步商品化,而“理解力”才是开发者的真正超能力
尽管生成式AI不断进步,软件开发者无需恐惧,但“自我修炼”与深入理解将成为未来核心竞争力。 围绕“智能与智慧”的讨论自古有之,而在人工智能时代,这一古老哲学问题被赋予了极其现实的意义:当专业知识成本不断下降,真正珍贵的,是知道如何去运用它的能力。如今,最有价值的,已不再是“能做什么”,而是“如何有效地使用这项能力”。能在复杂系统中厘清目标、将海量内容整合为清晰的战略方向,这才是现代竞争的新规则。 在软件开发这一领域尤为如此,因为在这里,“内容”就是“可执行代码”。这也造就了一个令人矛盾的现实:尽管业内普遍认识到代码越多,维护成本越高,且“产出越多不等于效果更好”,但当下仍流行一种说法——即软件开发者终将被AI取代。 而事实可能恰恰相反。开发者真正的核心技能,在于他们能在“构想、目标与实现”之间自由穿梭。而正是这个能力维度,正在以惊人的速度扩张。虽然任何人都能借助自然语言让AI生成代码,但每一次代码生成,也都在为真正的开发者拓展新的领域。 或许生成的代码质量不错,能满足需求,也能很好地集成入现有系统。但代码真正的价值,在于是否体现出对项目目标与系统结构的深入理解。而能做到这点的人,有一个清晰的名称:软件开发者。 AI无法做到这一点,因为AI并不具备“理解”。理解事务之重要性,是一种纯粹的人类能力,也是一项日益稀缺但日趋必要的技能。 “意图”是企业创新的中间地带 企业创新的“中间地带”,是战略目标与技术实现之间的桥梁。而这个桥梁,即“意图的对接”,是AI永远无法独立完成的,它只能在人的指导下协助完成。 对开发者而言,将“意图”贯穿于开发实践,是自我增值的关键。当能把握一个项目背后的初衷,并用专业技能将之准确实现,就能发挥出远超AI的价值。在此基础上,AI只是助力,将人的“意图”放大为自动化的执行流程。 即便AI未来在这一“中间地带”能力有所提升,它也永远无法具备“意图”本身。它的行动永远基于人类的驱动。因此,开发者不应仅成为“意图”与“实现”的中介,而应坚持发展自身对系统的独特理解力——自动化可以代替实现,但理解是无法被复制的。 LLM不会取代高级编程语言 AI热衷者有时会宣称,AI能大规模生成代码,理解代码意图已不再重要。但实际上,这只是在生成的最初阶段如此。未来或许真的会出现用自然语言直接操作AI的场景,类似今天的第四代语言。然而若将AI接口比作“Python之上的一层”,那就必须承认,未来依然需要懂得“底层语言”的人,正如今天仍然需要熟悉C语言、汇编、甚至芯片架构的工程师。 事实上,现阶段的大语言模型对人类开发者的要求甚至更高——必须确保最小变动、最大精简。这些原则并非附加要求,而是经验反复验证后形成的编程核心准则。任务是否“完成”与是否“优雅地完成”,在软件开发中是一个绝对不可忽视的差异。 就像一个循环的实现方式可以被抽象,开发者可以用LLM代替写for循环或forEach函数。但底层仍然是一个“循环”在运行。有人必须理解“迭代”在数据和系统中的含义,这种本质的理解无法由模型代劳。 理性看待生成式AI:别被“神话”迷住双眼 值得一提的是,Gartner在2024年6月的“技术炒作周期”报告中已将生成式AI列入“幻灭低谷期”。一项技术被高度期待、炒作过度后,往往难以被清晰看待。而软件开发者恰恰具备这种“冷静看清本质”的能力。只有清晰认识AI真正能做什么、不能做什么,才能更好地发挥其作用,从而为整个行业创造更好的结果。 AI是人类平均产出的结果——也就意味着,它的产出也是“平均水平”。而真正卓越的技术与创意,则来源于将“抽象意图、创造精神”与“具体技术”结合起来的那种人类独特智慧。AI只能模拟这种能力,但无法拥有真正的“灵魂”。 如同禅宗或李小龙所说:AI只不过是“指月之指”,却非“月亮本身”。 智能 vs. 智慧:开发者最宝贵的是整合能力 就像《龙与地下城》这类角色扮演游戏中所设定的,“智力”是“知道在下雨”,而“智慧”是“知道要躲雨”。换句话说,智能告诉人“怎么做”,而智慧告诉人“做什么”。 从更深层次来看,智能倾向于“拆解”,而智慧追求“整合”。智能关注局部,智慧把握整体。而当“智能”可以被人工制造,我们就更需要借助智慧去驾驭它。 软件开发者的独特价值,不在于机械实现,而在于其视角——对系统、目标、用户体验的整合能力。在AI制造的大量“理解缺失”的内容中,真正稀缺的是“深度理解”。而理解,不论是“怎么做”还是“为何要做”,永远都是最具价值的财富。 持续追问“为什么”,理解得更深——其余的一切,都会水到渠成。
谷歌收获成果:OpenAI收购Windsurf计划告吹
OpenAI原计划以30亿美元收购风靡一时的AI编程初创公司Windsurf,然而这一交易已正式宣告失败。出人意料的是,谷歌迅速出手,招募了Windsurf的首席执行官Varun Mohan、联合创始人Douglas Chen以及多名关键研究人员加入旗下的Google DeepMind部门。据《The Verge》报道,这一举动凸显了当今科技行业的新竞争策略:科技巨头绕开监管障碍,以高薪挖角的方式“吞下”新兴竞争对手最有价值的资产——人才与技术。 据悉,谷歌为此次“收编”支付了24亿美元,获得了对部分Windsurf技术的非独家许可,但未获得该公司的股权或控制权。这使得Windsurf仍保留约250人的大部分团队,由一位临时首席执行官领导继续运营。与此同时,原领导团队将把重心转向在谷歌Gemini模型上的代理式编程(agentic coding)开发工作。 新战场的形成 这场收购失败的前奏早在几周前便已埋下。作为OpenAI的重要竞争对手,Anthropic率先出招,切断了Windsurf对其Claude模型的访问权限。这一举动恰逢OpenAI意图收购Windsurf的消息传出。Anthropic联合创始人Jared Kaplan对此表示:“我们认为向OpenAI出售Claude不太合理。”这项策略性封锁旨在防止竞争对手从其模型中获得训练数据。 然而,这一防御行为反而为谷歌提供了切入点。在失去Claude支持后,Windsurf迅速转向并推荐用户使用谷歌的Gemini 2.5 Pro模型。这一合作关系或许为谷歌后续提出的“收编式收购”埋下了伏笔。 这场收购风波背后,是整个AI领域愈演愈烈的人才大战。Meta也在积极吸纳顶尖AI专家以强化旗下的“超级智能实验室”(Superintelligence Labs),希望弥补Llama 4模型发布失败带来的差距。据报道,Meta为吸引人才开出高达4年3亿美元的薪酬方案,CEO马克·扎克伯格甚至亲自参与招揽行动。这一策略已成功吸引前苹果基础模型主管彭汝明,以及前Scale AI首席执行官Alexandr Wang等重量级人物加入。 在这样的高压竞争环境下,“人才收购”(acquihire)正成为巨头公司的关键武器。通过高薪招揽关键团队成员并许可相关技术,而非进行正式收购,像谷歌、微软这样的公司既能增强自身能力,又能削弱潜在竞争者。与此同时,这一方式也规避了数十亿美元规模收购案所需面对的监管审查。 类似的战略谷歌早已操作过:此前便通过此方式“招募”了Character.AI的首席执行官。微软也曾在招揽Inflection AI的领导层后采用同样的操作模式。 后果与代价 Windsurf成为这场巨头博弈的直接受害者。随着创始团队及技术骨干的流失,该公司的未来愈发扑朔迷离,面临与其他初创企业相似的困境。此前,微软挖走Inflection AI的创始人后,该公司不得不彻底转型,放弃原有的消费级AI产品方向。Scale AI也因Meta聘用其CEO而传出客户流失的消息。 值得注意的是,Windsurf在交易破裂前已实现1亿美元的年度经常性收入,但在失去创始团队和部分技术之后,公司发展前景变得不明朗。这一事件揭示了AI产业生态中的残酷现实:初创公司若无法与大型实验室匹敌,昔日的合作伙伴很可能在某个节点转身成为“掠夺者”,抽走最宝贵的资源,留下空壳公司艰难维持。 然而,亦有观点认为,Windsurf创始人此举或许是主动的战略退出。在面对谷歌、OpenAI与Anthropic等巨头陆续发布越来越强大的AI编程工具时,Windsurf与Cursor等小型公司可能难以抵抗技术和资本的双重压力。创始团队或已预见公司在未来终将式微,因此选择加入一个无法打败的对手,以保留影响力并继续推动技术前沿的发展。
谷歌推出Vertex AI Memory Bank:为AI智能体带来持久记忆,支持连续对话
AI智能体正逐步走向商业化,但“缺乏记忆”长期以来一直是开发中的核心难题。当前许多AI智能体无法记住用户的历史互动,导致每次对话都被视为首次交流。这种缺陷带来了重复提问、忽略用户偏好、缺乏个性化等问题,不仅让用户感到沮丧,也给开发者带来极大挑战。 过去,开发者尝试通过将整段对话历史直接注入大语言模型(LLM)的上下文窗口来解决这一问题,但这种方法计算成本高昂,响应速度变慢,且容易导致模型输出质量下降。例如,加入过多无关信息容易引发“中间信息丢失”(lost in the middle)或“上下文腐烂”(context rot)等现象。 Vertex AI Memory Bank正式发布 为突破上述瓶颈,谷歌云宣布在Vertex AI Agent Engine中推出Memory Bank服务的公开预览版本。这是一项全托管的新型服务,旨在帮助开发者构建具备持久记忆能力的个性化对话智能体,使互动更加自然、连贯并具备上下文感知能力。 例如,在医疗健康场景中,某用户曾在以往会话中提及过敏史或某些症状,Memory Bank能够让智能体在当前对话中准确调用这些信息,从而提供更贴合用户实际情况的建议。 Memory Bank的关键优势包括: 工作原理解析 Memory Bank依托谷歌Gemini模型与最新研究成果,采用多阶段智能处理流程实现对“记忆”的构建与应用: 该流程基于谷歌研究团队发表于ACL 2025的最新研究方法,采用主题导向的学习与召回机制,为智能体记忆功能树立了行业新标准。例如,个性化美容助手可以根据用户不断变化的肤质,精准推荐合适的护肤产品。 如何使用Memory Bank Memory Bank已集成至谷歌的Agent Development Kit(ADK)与Agent Engine Sessions之中。开发者只需使用ADK定义智能体,并启用Agent Engine Sessions,即可自动管理每次会话的历史数据。而Memory Bank的接入则进一步实现跨会话的长期记忆。 开发者可通过以下两种主要方式接入Memory Bank: 对于首次使用谷歌云的开发者,ADK支持快捷注册模式。用户可使用Gmail账户注册Agent Engine Sessions与Memory Bank,获取API密钥并在免费额度内构建原型项目,后续也可无缝迁移至完整的谷歌云项目用于生产部署。 Memory Bank的发布标志着AI智能体进入真正具备“记忆力”的新阶段,为构建更智能、更人性化的AI交互系统奠定了坚实基础。