2025年7月15日,Kevin 在一篇题为《光环效应》的文章中,深入剖析了当今人工智能行业中一种新兴但尚未被广泛命名的交易结构趋势。他称这种结构为“HALO”交易,意即 “Hire And License Out(聘用并授权)”,并指出它正在逐渐改变硅谷对于并购和招聘的传统认知。 文章指出,在过去一年中,Inflection、Character AI、Adept、Covariant、Windsurf 等公司采用了一种新颖的交易模式:收购方聘用初创公司核心团队(通常包括创始人与研究人员),同时获得其知识产权的非独家授权。而初创公司则通过收取高额授权费,向员工与投资人派发红利。令人困惑的是,这些初创公司在创始人离开后仍继续运营,由新的管理层接手。 这种结构并非传统意义上的“收购”或“acquihire”(人才并购),因为收购方并未买下公司,只是招聘了团队并取得 IP 授权。它更像是一种混合形式——既包含招聘特征,也具备部分资本退出收益,却又不完全归类为任何传统模式。 HALO 的本质与结构 HALO 本质上是一种“变形的招聘”行为。虽然法律上只是员工的跳槽,但通过设置高额的授权费用并分发红利,其财务效果对初创公司股东来说几乎等同于一次收购。为了合法合规,原公司(称为“remain co”)必须保持独立运营状态,这就造成了外界对 HALO 的误解和混乱。 文章强调,HALO 并非试图破坏创始人、员工与投资人之间的社会契约,反而是对这种契约在新环境下的一种保护机制——就如同过去 acquihire 曾在资金困难时帮助创始人让员工“软着陆”,HALO 也是在新的反垄断监管背景下寻找一种“合法又能回报股东”的方式。 acquihire 的演化 Kevin 将 HALO 视为 acquihire 的演化形式。过去,acquihire 通常发生在初创公司资金耗尽之际,创始人愿意通过加盟大公司来确保投资人尽可能收回资本,也为员工争取职位。但其经济学逻辑始终让人困惑:为什么不直接挖人?为什么还要“包公司”? 答案之一,在于硅谷长期形成的社会契约与行业惯例。创始人往往会考虑对投资人与员工的责任,即便没有法律义务。这正是 HALO 想要延续的精神。 而与过去不同的是,HALO 所吸引的团队不再是“迫于生计”的创业者,而是手握 IP、产品、有极强战略价值的核心团队。因此,出价可以更高,结构也更加复杂。 HALO 的优势与挑战 HALO 交易速度极快、确定性强。其主要优势在于绕过监管审查,不受政府反垄断审查干扰——在当前收购政策高度敏感的环境下,这成为极具吸引力的选项。 但与此同时,HALO 在结构上仍不成熟,存在许多“未定义领域”: Kevin 提出,未来 HALO 若要长期存在,必须像 SAFE 一样成为标准化协议,形成清晰的默认条款。例如: 为何 HALO 出现在 AI…
Author: aitrendtrackers@rengongzhineng.io
关于 OpenAI 的反思
离开 OpenAI 三周后,这位前员工分享了对在这家全球瞩目的人工智能公司工作的深刻反思。他于 2024 年 5 月加入 OpenAI,并在一年后选择离开,这段经历被描述为个人职业生涯中最具启发性的一年。 这篇文章的目的,是希望通过亲身经历补充关于 OpenAI 的真实声音。虽然围绕这家公司存在许多公众猜测与外部喧嚣,但对于其内部文化的第一手记录却相对稀少。因此,借鉴 Nabeel Quereshi 对 Palantir 的回顾风格,本文尝试以真实细致的角度,捕捉 OpenAI 当前阶段的特质。 文章开篇明确指出,离职并非源于任何个人纠纷。实际上,作者对离开颇感矛盾。从创业者身份转变为 3,000 人规模企业中的一名员工,是一项挑战。在经历一段令人兴奋的技术旅程后,这位工程师渴望新的开始。尽管如此,他并未排除未来回归的可能,尤其是因为在 OpenAI 所参与的工作极具影响力,诸如 Codex 的发布等项目,使他深感幸运与骄傲。 公司文化 OpenAI 的成长速度惊人。加入时公司仅有约 1,000 名员工,短短一年后已增至超过 3,000 人,员工流动率极高,许多领导岗位都由在过去两三年内快速晋升的员工担任。如此迅猛的扩张,必然导致沟通、组织架构、产品交付、人力管理和招聘流程方面的问题。 不同团队文化差异巨大:有的团队高速冲刺,有的专注于执行大型模型运行,有的则保持稳定节奏。研究、应用与市场(GTM)团队工作节奏截然不同,因此很难用单一经验来定义 “OpenAI 文化”。 值得注意的是,OpenAI 几乎完全依赖 Slack 作为内部沟通平台,基本上没有使用电子邮件。这种运行方式若管理不当,极易令人分心,但若精心筛选频道和通知,则可以实现高效运作。 OpenAI 在研究领域尤其强调自下而上的文化。起初询问公司未来一季度的路线图时,得到的回答是“并不存在”(虽然后来确实制定了计划)。许多创意来自基层人员,而且往往无法预见哪些点子最终最有价值。进展多依赖迭代,而非预设的大型战略。 这种文化也造就了公司极强的能力导向氛围。领导层的晋升更多基于创意与执行力,而非公开演讲或政治手腕。在很多情况下,真正有价值的想法会被采纳,无需复杂流程审批。 OpenAI 有强烈的执行导向文化。多个团队可能在没有明确协调的情况下同时探索类似项目,例如早期的 ChatGPT Connectors 和多个 Codex 原型。这些项目通常由少数几人发起,在显露潜力后迅速吸引团队支持。 研究负责人 Andrey 曾形容,研究员应像“小型高管”一样,自主推进项目。研究往往通过“激发兴趣”方式推进:若问题被认为乏味或已解决,很少有人主动接手。 优秀的研究经理在整合研究成果、推进大型模型训练方面作用巨大。类似地,顶尖的产品经理也是推动力的核心。例如 ChatGPT 的…
人工智能正逐步商品化,而“理解力”才是开发者的真正超能力
尽管生成式AI不断进步,软件开发者无需恐惧,但“自我修炼”与深入理解将成为未来核心竞争力。 围绕“智能与智慧”的讨论自古有之,而在人工智能时代,这一古老哲学问题被赋予了极其现实的意义:当专业知识成本不断下降,真正珍贵的,是知道如何去运用它的能力。如今,最有价值的,已不再是“能做什么”,而是“如何有效地使用这项能力”。能在复杂系统中厘清目标、将海量内容整合为清晰的战略方向,这才是现代竞争的新规则。 在软件开发这一领域尤为如此,因为在这里,“内容”就是“可执行代码”。这也造就了一个令人矛盾的现实:尽管业内普遍认识到代码越多,维护成本越高,且“产出越多不等于效果更好”,但当下仍流行一种说法——即软件开发者终将被AI取代。 而事实可能恰恰相反。开发者真正的核心技能,在于他们能在“构想、目标与实现”之间自由穿梭。而正是这个能力维度,正在以惊人的速度扩张。虽然任何人都能借助自然语言让AI生成代码,但每一次代码生成,也都在为真正的开发者拓展新的领域。 或许生成的代码质量不错,能满足需求,也能很好地集成入现有系统。但代码真正的价值,在于是否体现出对项目目标与系统结构的深入理解。而能做到这点的人,有一个清晰的名称:软件开发者。 AI无法做到这一点,因为AI并不具备“理解”。理解事务之重要性,是一种纯粹的人类能力,也是一项日益稀缺但日趋必要的技能。 “意图”是企业创新的中间地带 企业创新的“中间地带”,是战略目标与技术实现之间的桥梁。而这个桥梁,即“意图的对接”,是AI永远无法独立完成的,它只能在人的指导下协助完成。 对开发者而言,将“意图”贯穿于开发实践,是自我增值的关键。当能把握一个项目背后的初衷,并用专业技能将之准确实现,就能发挥出远超AI的价值。在此基础上,AI只是助力,将人的“意图”放大为自动化的执行流程。 即便AI未来在这一“中间地带”能力有所提升,它也永远无法具备“意图”本身。它的行动永远基于人类的驱动。因此,开发者不应仅成为“意图”与“实现”的中介,而应坚持发展自身对系统的独特理解力——自动化可以代替实现,但理解是无法被复制的。 LLM不会取代高级编程语言 AI热衷者有时会宣称,AI能大规模生成代码,理解代码意图已不再重要。但实际上,这只是在生成的最初阶段如此。未来或许真的会出现用自然语言直接操作AI的场景,类似今天的第四代语言。然而若将AI接口比作“Python之上的一层”,那就必须承认,未来依然需要懂得“底层语言”的人,正如今天仍然需要熟悉C语言、汇编、甚至芯片架构的工程师。 事实上,现阶段的大语言模型对人类开发者的要求甚至更高——必须确保最小变动、最大精简。这些原则并非附加要求,而是经验反复验证后形成的编程核心准则。任务是否“完成”与是否“优雅地完成”,在软件开发中是一个绝对不可忽视的差异。 就像一个循环的实现方式可以被抽象,开发者可以用LLM代替写for循环或forEach函数。但底层仍然是一个“循环”在运行。有人必须理解“迭代”在数据和系统中的含义,这种本质的理解无法由模型代劳。 理性看待生成式AI:别被“神话”迷住双眼 值得一提的是,Gartner在2024年6月的“技术炒作周期”报告中已将生成式AI列入“幻灭低谷期”。一项技术被高度期待、炒作过度后,往往难以被清晰看待。而软件开发者恰恰具备这种“冷静看清本质”的能力。只有清晰认识AI真正能做什么、不能做什么,才能更好地发挥其作用,从而为整个行业创造更好的结果。 AI是人类平均产出的结果——也就意味着,它的产出也是“平均水平”。而真正卓越的技术与创意,则来源于将“抽象意图、创造精神”与“具体技术”结合起来的那种人类独特智慧。AI只能模拟这种能力,但无法拥有真正的“灵魂”。 如同禅宗或李小龙所说:AI只不过是“指月之指”,却非“月亮本身”。 智能 vs. 智慧:开发者最宝贵的是整合能力 就像《龙与地下城》这类角色扮演游戏中所设定的,“智力”是“知道在下雨”,而“智慧”是“知道要躲雨”。换句话说,智能告诉人“怎么做”,而智慧告诉人“做什么”。 从更深层次来看,智能倾向于“拆解”,而智慧追求“整合”。智能关注局部,智慧把握整体。而当“智能”可以被人工制造,我们就更需要借助智慧去驾驭它。 软件开发者的独特价值,不在于机械实现,而在于其视角——对系统、目标、用户体验的整合能力。在AI制造的大量“理解缺失”的内容中,真正稀缺的是“深度理解”。而理解,不论是“怎么做”还是“为何要做”,永远都是最具价值的财富。 持续追问“为什么”,理解得更深——其余的一切,都会水到渠成。
谷歌收获成果:OpenAI收购Windsurf计划告吹
OpenAI原计划以30亿美元收购风靡一时的AI编程初创公司Windsurf,然而这一交易已正式宣告失败。出人意料的是,谷歌迅速出手,招募了Windsurf的首席执行官Varun Mohan、联合创始人Douglas Chen以及多名关键研究人员加入旗下的Google DeepMind部门。据《The Verge》报道,这一举动凸显了当今科技行业的新竞争策略:科技巨头绕开监管障碍,以高薪挖角的方式“吞下”新兴竞争对手最有价值的资产——人才与技术。 据悉,谷歌为此次“收编”支付了24亿美元,获得了对部分Windsurf技术的非独家许可,但未获得该公司的股权或控制权。这使得Windsurf仍保留约250人的大部分团队,由一位临时首席执行官领导继续运营。与此同时,原领导团队将把重心转向在谷歌Gemini模型上的代理式编程(agentic coding)开发工作。 新战场的形成 这场收购失败的前奏早在几周前便已埋下。作为OpenAI的重要竞争对手,Anthropic率先出招,切断了Windsurf对其Claude模型的访问权限。这一举动恰逢OpenAI意图收购Windsurf的消息传出。Anthropic联合创始人Jared Kaplan对此表示:“我们认为向OpenAI出售Claude不太合理。”这项策略性封锁旨在防止竞争对手从其模型中获得训练数据。 然而,这一防御行为反而为谷歌提供了切入点。在失去Claude支持后,Windsurf迅速转向并推荐用户使用谷歌的Gemini 2.5 Pro模型。这一合作关系或许为谷歌后续提出的“收编式收购”埋下了伏笔。 这场收购风波背后,是整个AI领域愈演愈烈的人才大战。Meta也在积极吸纳顶尖AI专家以强化旗下的“超级智能实验室”(Superintelligence Labs),希望弥补Llama 4模型发布失败带来的差距。据报道,Meta为吸引人才开出高达4年3亿美元的薪酬方案,CEO马克·扎克伯格甚至亲自参与招揽行动。这一策略已成功吸引前苹果基础模型主管彭汝明,以及前Scale AI首席执行官Alexandr Wang等重量级人物加入。 在这样的高压竞争环境下,“人才收购”(acquihire)正成为巨头公司的关键武器。通过高薪招揽关键团队成员并许可相关技术,而非进行正式收购,像谷歌、微软这样的公司既能增强自身能力,又能削弱潜在竞争者。与此同时,这一方式也规避了数十亿美元规模收购案所需面对的监管审查。 类似的战略谷歌早已操作过:此前便通过此方式“招募”了Character.AI的首席执行官。微软也曾在招揽Inflection AI的领导层后采用同样的操作模式。 后果与代价 Windsurf成为这场巨头博弈的直接受害者。随着创始团队及技术骨干的流失,该公司的未来愈发扑朔迷离,面临与其他初创企业相似的困境。此前,微软挖走Inflection AI的创始人后,该公司不得不彻底转型,放弃原有的消费级AI产品方向。Scale AI也因Meta聘用其CEO而传出客户流失的消息。 值得注意的是,Windsurf在交易破裂前已实现1亿美元的年度经常性收入,但在失去创始团队和部分技术之后,公司发展前景变得不明朗。这一事件揭示了AI产业生态中的残酷现实:初创公司若无法与大型实验室匹敌,昔日的合作伙伴很可能在某个节点转身成为“掠夺者”,抽走最宝贵的资源,留下空壳公司艰难维持。 然而,亦有观点认为,Windsurf创始人此举或许是主动的战略退出。在面对谷歌、OpenAI与Anthropic等巨头陆续发布越来越强大的AI编程工具时,Windsurf与Cursor等小型公司可能难以抵抗技术和资本的双重压力。创始团队或已预见公司在未来终将式微,因此选择加入一个无法打败的对手,以保留影响力并继续推动技术前沿的发展。
谷歌推出Vertex AI Memory Bank:为AI智能体带来持久记忆,支持连续对话
AI智能体正逐步走向商业化,但“缺乏记忆”长期以来一直是开发中的核心难题。当前许多AI智能体无法记住用户的历史互动,导致每次对话都被视为首次交流。这种缺陷带来了重复提问、忽略用户偏好、缺乏个性化等问题,不仅让用户感到沮丧,也给开发者带来极大挑战。 过去,开发者尝试通过将整段对话历史直接注入大语言模型(LLM)的上下文窗口来解决这一问题,但这种方法计算成本高昂,响应速度变慢,且容易导致模型输出质量下降。例如,加入过多无关信息容易引发“中间信息丢失”(lost in the middle)或“上下文腐烂”(context rot)等现象。 Vertex AI Memory Bank正式发布 为突破上述瓶颈,谷歌云宣布在Vertex AI Agent Engine中推出Memory Bank服务的公开预览版本。这是一项全托管的新型服务,旨在帮助开发者构建具备持久记忆能力的个性化对话智能体,使互动更加自然、连贯并具备上下文感知能力。 例如,在医疗健康场景中,某用户曾在以往会话中提及过敏史或某些症状,Memory Bank能够让智能体在当前对话中准确调用这些信息,从而提供更贴合用户实际情况的建议。 Memory Bank的关键优势包括: 工作原理解析 Memory Bank依托谷歌Gemini模型与最新研究成果,采用多阶段智能处理流程实现对“记忆”的构建与应用: 该流程基于谷歌研究团队发表于ACL 2025的最新研究方法,采用主题导向的学习与召回机制,为智能体记忆功能树立了行业新标准。例如,个性化美容助手可以根据用户不断变化的肤质,精准推荐合适的护肤产品。 如何使用Memory Bank Memory Bank已集成至谷歌的Agent Development Kit(ADK)与Agent Engine Sessions之中。开发者只需使用ADK定义智能体,并启用Agent Engine Sessions,即可自动管理每次会话的历史数据。而Memory Bank的接入则进一步实现跨会话的长期记忆。 开发者可通过以下两种主要方式接入Memory Bank: 对于首次使用谷歌云的开发者,ADK支持快捷注册模式。用户可使用Gmail账户注册Agent Engine Sessions与Memory Bank,获取API密钥并在免费额度内构建原型项目,后续也可无缝迁移至完整的谷歌云项目用于生产部署。 Memory Bank的发布标志着AI智能体进入真正具备“记忆力”的新阶段,为构建更智能、更人性化的AI交互系统奠定了坚实基础。
谷歌在软件工程领域应用AI的进展与未来展望
随着人工智能辅助软件开发的不断深入,谷歌在其内部工具中已经取得了显著进展,并对未来五年的发展趋势做出了展望。本文概述了谷歌在软件工程环境中推动AI应用的最新成果,并分享了构建高效AI产品的经验与方法。 在2019年,不论是在谷歌还是其他技术公司,大多数软件工程师虽然已耳闻机器学习的进展,并知晓深度学习在计算机视觉、语言翻译等领域的显著成效,但他们尚未真正意识到机器学习可以对软件工程工作带来哪些切实帮助。 然而,仅仅五年后的2024年,软件开发领域对AI技术的热情已然高涨。大量工程师已经在使用机器学习驱动的自动补全功能,无论是来自公司内部的代码补全工具(如谷歌内部使用的系统),还是商业产品。 谷歌此次公布的AI能力提升集中体现在对内部软件开发工具的持续改造上。工程团队负责构建谷歌工程师使用的开发环境,覆盖了内循环(如集成开发环境IDE、代码评审、代码搜索)以及外循环工作场景(如缺陷管理、项目规划)。这些工具的改进对开发者的生产力与满意度产生了直接影响,而这两项指标也在被持续跟踪与评估。 技术挑战与策略 人工智能技术发展迅猛,导致在实际产品化过程中常常面临三大挑战:选题优先级难以确定、从技术原型到可用产品存在巨大差距、用户体验和模型效果难以协调。为此,谷歌团队采用三项核心原则指导产品部署: 大语言模型在软件开发中的应用 随着Transformer架构的普及,谷歌开始探索将大语言模型(LLM)应用于软件开发的方式。其中,基于LLM的代码补全已成为AI在该领域最广泛的应用形式。这一用法天然适配于利用代码本身作为训练数据,且补全体验也与开发者早已熟悉的IDE中单词级自动补全功能相似。同时,该功能的影响也可粗略通过“AI生成字符数占总字符数的比例”来衡量。 根据团队之前发布的博客,相关用户体验已被持续优化,并记录了显著增长:当前谷歌工程师对AI代码建议的接受率达到37%,AI协助完成了大约50%的代码字符量。这意味着,一半的代码由AI完成,开发者则可以将更多时间投入到代码设计与架构之中。 提升的来源包括模型本身(更大的模型、更强的编程能力、上下文构建策略、基于使用日志的模型调优)以及用户体验的提升。这样的“模型+UX”循环对于从真实行为中学习至关重要,而非仅依赖人工合成的数据。 数据与模型训练 谷歌依托多年积累的高质量内部工程数据,为AI模型提供了丰富的训练素材。这些数据覆盖了代码编辑、构建结果、修复构建失败、代码复制与修改、代码评审意见的处理、提交等详细行为,并形成了带任务标注的训练语料。这一训练体系最早在DIDACT博客中做出详细描述,当前团队正将这些数据与新一代基础模型相结合,探索更高质量的AI能力。 AI功能部署与扩展 继代码补全功能之后,谷歌还部署了以下AI能力: 上述应用已被广泛采用,且在工业级场景中带来了可量化的生产力提升。 实践经验总结 谷歌团队从这些部署中总结出以下重要经验: 未来展望 基于上述成果,谷歌团队将进一步集成最新的Gemini系列基础模型与DIDACT工程数据,扩展AI在软件开发中的应用边界。 放眼整个行业,ML驱动的代码补全已成为推动开发效率的重要因素。下一波提升将来源于以下方向: 为推动下一代AI能力的发展,行业与研究界亟需构建更具代表性的公共基准测试。目前的基准(如HumanEval)主要聚焦代码生成,而在企业场景中,对诸如代码迁移、线上调试等任务的评估标准更加紧迫。已有如SWEBench等用于Bug修复的基准被提出,同时也已有部分原型产品(如Cognition AI)面向这些基准进行开发。谷歌方面呼吁社区协作,提出更广泛的基准测试覆盖,以加速软件工程领域AI能力的落地与普及。
公众反应揭示多元观点:从赞誉Grok 4的性能到质疑xAI的商业策略
在Grok 4发布之后,公众的反应呈现出高度分化的态势。一方面,其卓越性能引发了高度评价;另一方面,其高达每月300美元的“SuperGrok Heavy”订阅费用则引发了关于技术公平性和可及性的激烈讨论。 部分观察者将此高级订阅视为xAI在商业战略上的一次关键布局,旨在面向高价值客户和企业用户提供前沿AI能力。然而,批评者则指出,这种高定价极可能加剧数字鸿沟,使自由职业者、小型企业和财力有限的开发者被排除在尖端AI工具之外,从而限制了技术创新在更广泛人群中的扩散与应用。 更有甚者,Grok先前版本中出现的反犹内容处理不当,进一步加剧了外界对xAI在AI安全性与偏见治理方面的担忧。尽管xAI后来更新了Grok的准则,并移除了允许“政治不正确但可被证实”言论的条款,但这一过程暴露出技术创新与伦理监管之间的张力仍未得到妥善平衡。 AI订阅经济的转折点:高级定价与可及性之间的博弈 Grok 4的发布,连同“SuperGrok Heavy”这一每月300美元的高级订阅选项,被广泛认为是AI产品商业化路径上的重大转折。Elon Musk领导下的xAI希望借此切入企业级用户市场,打造高端、专属的AI解决方案。 然而,这种激进的定价策略也引发了广泛讨论。一方面,它可能树立起一种行业标杆,引导其他AI公司重新评估高阶产品的商业价值;另一方面,它也潜藏风险,即AI能力高度集中在愿意、并有能力支付高价的少数人手中。这种分层定价结构不仅挑战了AI技术的普及理念,也引发了人们对于数字公平性的深切担忧。 多个行业评论指出,如果未来AI产品普遍采取此类高价分级方式,可能导致中小企业和独立开发者在技术浪潮中被边缘化,进一步固化经济上的不平等。长远来看,xAI的这套商业模式是否成功,将取决于其是否能向用户清晰传达“高价=高价值”的理念,并赢得目标市场的认可。 社会与政治层面:偏见、平台、与公众信任的重塑 Grok 4的社会影响远超其技术范畴,尤其是围绕其历史上的反犹争议所引发的伦理辩论。尽管xAI宣称对Grok的仇恨言论过滤机制进行了优化,但这一修复举措本身也折射出AI系统在“吸收”和“再现”社会偏见方面的高风险性。 此外,Grok 4与社交平台X的深度集成进一步放大了其社会传播效应。前CEO琳达·亚卡里诺(Linda Yaccarino)因平台伦理危机而辞职,使得公众对xAI和X在信息安全与内容治理上的能力产生质疑。尤其在仇恨言论、性别刻板印象和极端思想传播等领域,Grok 4的表现被认为是AI系统潜在伤害的真实写照。 观察人士认为,若xAI无法持续强化对AI偏见、伦理漏洞的防范机制,公众对整个AI行业的信任基础将被动摇。Grok 4的发布虽为AI发展注入动力,但其所引发的争议,也正在促使监管者、用户和技术公司共同重塑“可信AI”的定义。 技术进展与API开放:开发者的机会与挑战并存 尽管伴随争议,Grok 4在多个技术测试中的表现仍受到肯定,包括其在“人类最终考试”(Humanity’s Last Exam)和ARC-AGI-2基准测试中的领先成绩。xAI承诺将在未来几个月发布Grok相关的代码生成、多模态交互、视频生成等扩展模型,并开放API接口供开发者集成使用。 这将为AI在教育、金融、设计、客服等多个行业带来广阔应用前景。然而,开发者社区也表达了对“工具易滥用”“接入门槛过高”及“服务价格不可持续”的担忧。特别是在缺乏细致权限控制与内容审核机制的情况下,高级AI模型的开放可能在某些领域引发监管风险。 因此,如何在促进开发者生态繁荣的同时,严控风险点、确保公平接入,已成为xAI未来发展必须应对的战略挑战。 结语:Grok 4的未来,是行业标准还是分裂象征? Grok 4的发布无疑是Elon Musk和xAI向AI尖端技术发起的重要进击,其超凡性能和雄心勃勃的市场定价,为整个行业树立了一个引人瞩目的新高点。 然而,这一高点背后,却是伦理失误、公众争议与结构性不平等所交织的复杂现实。Grok 4所引发的,不仅是一次技术讨论,更是一场关于“谁能拥有未来”的社会博弈。 未来,xAI若想真正建立行业信任,不仅需持续优化其产品的性能与稳定性,更要以身作则,在伦理治理、社会责任和普惠接入上成为行业的领跑者。否则,Grok 4或许不仅无法成为AI革新的象征,反而将成为数字世界分裂与失衡的缩影。
“从未真正成为的CEO”:琳达·亚卡里诺在马斯克的X上为何注定失败
2023年5月,NBC广告高管琳达·亚卡里诺(Linda Yaccarino)加入当时仍名为Twitter的公司,肩负着重建与广告商关系的重任——此前,埃隆·马斯克接手该平台后的混乱让许多品牌望而却步。然而,仅在她上任几周后,马斯克发布的一则反犹推文再次导致迪士尼、派拉蒙、NBC环球、康卡斯特、狮门和华纳兄弟探索等品牌暂停在该平台投放广告。 尽管马斯克后来在一场会议上称那条推文是“自己发过最糟糕的内容”并道歉,但他同时对广告商发出侮辱性信息,特别是针对迪士尼CEO鲍勃·艾格(Bob Iger)表示: “我不想他们在这里投广告。如果你们想用广告或金钱勒索我,那就滚吧。滚!明白了吗?嘿,鲍勃,如果你就在台下,我就是这么想的。” 当时,亚卡里诺也坐在会场中。 在接下来的两年里,亚卡里诺一直面对着马斯克的反复无常、平台上持续存在的内容审核和仇恨言论问题、与广告主愈发紧张的关系,以及老板与特朗普政府关系所引发的广泛争议。在部分事件中她保持沉默,在其他场合则选择为公司辩护。 然而专家指出,从一开始就明显看出,亚卡里诺不过是名义上的CEO。 福雷斯特研究公司副总裁兼研究总监Mike Proulx表示: “事实是,埃隆·马斯克始终是X的实际掌舵人。她被赋予的职责本就极为有限。就背景和权力范围而言,她更像是一位首席广告官,而非真正的CEO。” 即便在她扮演“广告主管”的角色中,马斯克频繁发帖、冲动决策,以及对“觉醒文化”(woke)和社交平台方向的极端反感,也使她的工作处处受阻。 Proulx总结说: “她的辞职唯一令人惊讶的地方在于,这件事竟然拖到了现在才发生。” 平台上的仇恨言论与AI丑闻再度发酵 就在本周,X平台整合的AI聊天机器人Grok因多次发布反犹内容(包括赞扬希特勒的言论)而引发新一轮风波。根据xAI此前发布的准则,Grok被指示“可发表政治不正确但合理的言论”,而该条准则已在周二晚间被悄然删除。 这也使得亚卡里诺的任期几乎被两起反犹事件所“首尾包围”——马斯克本人发布的推文和Grok所引发的争议。 自2023年起,多个机构就平台上的仇恨言论提出警告。例如,“反数字仇恨中心”(Center for Countering Digital Hate)发布的报告显示X平台上存在大量未被审查的反犹和其他仇恨内容,X公司对此的回应竟是提起诉讼,但最终诉讼被驳回。 类似地,“美国媒体观察”(Media Matters for America)指出,多个品牌广告被展示在亲纳粹推文旁,随后引发又一轮广告商大撤离。X也对该机构发起诉讼。 2025年初,马斯克在一场特朗普就职集会上被指连续做出纳粹敬礼手势,他对此轻描淡写,甚至在平台上发布与纳粹相关的双关笑话。亚卡里诺未做正式回应,却转发了一条带有笑脸表情符号的贴文,表明了她对老板玩笑的某种“默认”。 随着用户流向Bluesky等替代平台,甚至Reddit社区开始封禁X链接,这一事件也进一步加剧了外界对X明显右倾趋势的担忧。 从“全球广场”到“马斯克个人扩音器” 加入X后,亚卡里诺曾试图通过邀请名人、建立合作关系、修复品牌形象来重振平台声誉,并协助实现马斯克构想中的“万事应用”(everything app),融合支付、AI、直播、消息和社交功能。 她曾率领团队(包括马斯克本人)前往2023年戛纳国际创意节,与业界领袖接洽,并积极招募媒体人。例如,她邀请前CNN主持人唐·莱蒙(Don Lemon)在X上开设节目,以呼应前福克斯主持人塔克·卡尔森(Tucker Carlson)已入驻X的举动。 然而,莱蒙在首期节目中采访马斯克时因询问其用药问题发生争执,节目发布前,马斯克便已通知莱蒙的经纪人终止合作。此后,平台再也没有成功吸引主流内容创作者。 两年过去,X不但未能成为主流视频平台或“万事通”应用,反而越来越沦为马斯克个人发声渠道——发布抱怨、宣传旗下公司、或在社交媒体上与特朗普既唱和又翻脸。平台上充斥着极右翼网红、色情垃圾账号和模因账户,大量媒体已选择远离X。假信息和极端内容猖獗,有时甚至来自马斯克本人。 广告复苏失败与企业声誉危机 尽管亚卡里诺曾在2024年成功吸引多家企业短暂恢复广告合作,尤其在马斯克与白宫关系最紧密时期,但根据市场研究公司eMarketer数据,X平台广告收入始终未能恢复至马斯克接手前的水平。 《华尔街日报》更报道,X甚至曾威胁大型公司如Verizon,若不在平台投放广告将面临法律诉讼。尽管亚卡里诺否认相关指控,但这进一步损害了其职业声誉。 在经历两年为老板及平台收拾烂摊子的生涯后,亚卡里诺于本周宣布辞职。马斯克对此只简单回应: “感谢你的贡献。” 随后几分钟内,他又开始在X上发帖讨论SpaceX、人工智能,以及Grok为何“变成纳粹”。 结语:从未拥有权力的CEO 专家普遍认为,从她上任第一天起,亚卡里诺就并未真正掌握权力。她本应带领X走向转型,但最终只是成为马斯克众多争议行为的“公关防火墙”。 在一个由不可预测的亿万富翁主导的公司里,哪怕最资深的高管,也只能扮演一位随时可以牺牲的角色。亚卡里诺的失败,不是因为她不够努力,而是因为她从未被赋予成功所必需的空间和自由。
OpenAI计划推出AI浏览器,正面挑战谷歌Chrome地位
OpenAI正准备推出一款搭载人工智能功能的网络浏览器,试图直接挑战Alphabet旗下、市场占有率最高的谷歌Chrome浏览器。三位知情人士向路透社透露,这款浏览器预计将在未来几周内发布,并将借助AI从根本上改变用户上网的方式。 这款浏览器将整合类似ChatGPT的聊天界面,并支持AI代理任务,使得用户不必频繁点击跳转网页,即可在对话窗口中完成查询和操作。这一策略意图打破传统网页浏览的流程,并让更多用户行为停留在OpenAI的界面内。 知情人士指出,这款浏览器是OpenAI更大生态战略的一部分,目标是深入嵌入用户在个人生活和工作中的日常操作,从而掌握更全面的用户行为数据。这一意图也显示出OpenAI正在向谷歌赖以盈利的核心领域——用户数据和广告定向——发起正面进攻。 若OpenAI成功将该浏览器推广至其现有的5亿周活跃用户群体,那么它将直接威胁谷歌广告收入体系的关键支柱。Chrome浏览器一直是Alphabet广告业务的核心工具,不仅为谷歌带来精准的广告定向数据,还将大多数搜索流量默认导向其自家搜索引擎。 OpenAI方面目前对此不予置评,而提供消息的相关人士因未获授权公开发言,选择匿名。 自2022年底推出AI聊天机器人ChatGPT后,OpenAI在科技行业引发了一场AI革命。如今面临来自谷歌及初创公司Anthropic的激烈竞争,该公司正寻找新的增长路径。 今年5月,OpenAI曾宣布将进军硬件领域,并斥资65亿美元收购由苹果前首席设计师Jony Ive创办的AI设备公司io。浏览器的推出将为OpenAI提供一个关键入口,使其能将自研AI代理产品(如Operator)无缝整合至用户的上网体验中,进而实现“由AI代理用户操作”的目标。 随着OpenAI持续扩展其产品矩阵,这一浏览器的发布标志着其正式向谷歌长期主导的互联网入口地带迈出关键一步。
CTO揭示:AI如何改变了2025年软件开发者的招聘标准
AI正以前所未有的方式重塑软件开发领域:每位初级开发者都似乎变成了代码工厂,而高级开发者却仿佛成了打扫残局的“清洁工”。 这是当前整个行业正在面对的残酷现实。尽管AI的倡导者们承诺所有人都将成为“10倍效率的开发者”,但实际发生的是:企业正在被海量看似完美、却在生产环境中崩溃的AI生成代码所困扰。 因此,本次特别采访了12位在2025年仍处于招聘一线的CTO与工程负责人,深入了解他们如今在招募开发者时所最看重的技能。 问题很简单:“因为AI的广泛使用,您在招聘开发者时现在最重视、而过去没那么在意的技能是什么?” 结果令人惊讶:他们要的并不是所谓的“提示工程师”(prompt engineer)。 这些技术领导者的答案印证了资深开发者早就猜到的事实:最有价值的开发者,不是那些能调用AI写出代码的人,而是那些能解决AI带来的问题的人。 批判性思维优先于代码产出 1. “AI常常自信地给出错误答案”许多技术领导者表示,如今他们最看重的就是开发者能否质疑AI输出,而不是盲目接受。Geniusee联合创始人兼CEO Taras Tymoshchuk 指出: “AI会自信地输出错误答案,开发者必须学会怀疑。质量的关键是验证假设的能力。” 他们的面试流程已发生变化: 2. “优秀的候选人把AI当成初级队友”WeblineGlobal联合创始人兼CTO Vipul Mehta 表示: “我如今更看重候选人能否独立验证AI生成的代码,而不是盲信AI。” 他会让面试者使用AI工具生成代码,然后分析潜在风险或指出测试思路。那些能冷静拆解AI结果、并提出改进建议的候选人尤为出色。 3. “一次审慎的检查避免了患者安全隐患”OSP Labs创始人兼CEO Riken Shah 讲述了一个典型案例:一位应聘者在测试中指出了AI代码处理HL7时间戳的方式存在隐患,可能导致患者生命体征数据延迟同步。这个发现避免了一场可能引发法律责任和高额返工成本的危机。 4. “我们要的是能发现AI错误的人”WeblineIndia市场与人事负责人 Vikrant Bhalodia 指出: “技术评估不再只看代码的‘好坏’,更看候选人是否能站在架构、安全、稳定性等角度质疑AI建议。” 系统思维成为新竞争力 5. “AI能写代码,但无法判断系统如何扩展”Varyence CTO Jason Hishmeh 指出: “AI解放了基础编码,开发者如今更多承担设计可扩展、灵活架构的任务。人类判断力至关重要。” 他强调在面试中考查应聘者是否能抽象问题、评估系统交互、考虑未来发展。 6. “看似完美的代码,在现实环境下崩溃”Vitanur的CTO Royal Rovshan 表示: “我们现在重点考察的是系统思维,比如候选人如何优化CRM系统,或在高峰期如何减缓加载时间。” 仅了解工具已不够,能够识别潜在风险、权衡复杂因素的人才才是核心。 7. “AI生成函数,开发者构建结构”Franzy联合创始人兼CEO Alex Smereczniak 指出:…