尽管生成式AI不断进步,软件开发者无需恐惧,但“自我修炼”与深入理解将成为未来核心竞争力。 围绕“智能与智慧”的讨论自古有之,而在人工智能时代,这一古老哲学问题被赋予了极其现实的意义:当专业知识成本不断下降,真正珍贵的,是知道如何去运用它的能力。如今,最有价值的,已不再是“能做什么”,而是“如何有效地使用这项能力”。能在复杂系统中厘清目标、将海量内容整合为清晰的战略方向,这才是现代竞争的新规则。 在软件开发这一领域尤为如此,因为在这里,“内容”就是“可执行代码”。这也造就了一个令人矛盾的现实:尽管业内普遍认识到代码越多,维护成本越高,且“产出越多不等于效果更好”,但当下仍流行一种说法——即软件开发者终将被AI取代。 而事实可能恰恰相反。开发者真正的核心技能,在于他们能在“构想、目标与实现”之间自由穿梭。而正是这个能力维度,正在以惊人的速度扩张。虽然任何人都能借助自然语言让AI生成代码,但每一次代码生成,也都在为真正的开发者拓展新的领域。 或许生成的代码质量不错,能满足需求,也能很好地集成入现有系统。但代码真正的价值,在于是否体现出对项目目标与系统结构的深入理解。而能做到这点的人,有一个清晰的名称:软件开发者。 AI无法做到这一点,因为AI并不具备“理解”。理解事务之重要性,是一种纯粹的人类能力,也是一项日益稀缺但日趋必要的技能。 “意图”是企业创新的中间地带 企业创新的“中间地带”,是战略目标与技术实现之间的桥梁。而这个桥梁,即“意图的对接”,是AI永远无法独立完成的,它只能在人的指导下协助完成。 对开发者而言,将“意图”贯穿于开发实践,是自我增值的关键。当能把握一个项目背后的初衷,并用专业技能将之准确实现,就能发挥出远超AI的价值。在此基础上,AI只是助力,将人的“意图”放大为自动化的执行流程。 即便AI未来在这一“中间地带”能力有所提升,它也永远无法具备“意图”本身。它的行动永远基于人类的驱动。因此,开发者不应仅成为“意图”与“实现”的中介,而应坚持发展自身对系统的独特理解力——自动化可以代替实现,但理解是无法被复制的。 LLM不会取代高级编程语言 AI热衷者有时会宣称,AI能大规模生成代码,理解代码意图已不再重要。但实际上,这只是在生成的最初阶段如此。未来或许真的会出现用自然语言直接操作AI的场景,类似今天的第四代语言。然而若将AI接口比作“Python之上的一层”,那就必须承认,未来依然需要懂得“底层语言”的人,正如今天仍然需要熟悉C语言、汇编、甚至芯片架构的工程师。 事实上,现阶段的大语言模型对人类开发者的要求甚至更高——必须确保最小变动、最大精简。这些原则并非附加要求,而是经验反复验证后形成的编程核心准则。任务是否“完成”与是否“优雅地完成”,在软件开发中是一个绝对不可忽视的差异。 就像一个循环的实现方式可以被抽象,开发者可以用LLM代替写for循环或forEach函数。但底层仍然是一个“循环”在运行。有人必须理解“迭代”在数据和系统中的含义,这种本质的理解无法由模型代劳。 理性看待生成式AI:别被“神话”迷住双眼 值得一提的是,Gartner在2024年6月的“技术炒作周期”报告中已将生成式AI列入“幻灭低谷期”。一项技术被高度期待、炒作过度后,往往难以被清晰看待。而软件开发者恰恰具备这种“冷静看清本质”的能力。只有清晰认识AI真正能做什么、不能做什么,才能更好地发挥其作用,从而为整个行业创造更好的结果。 AI是人类平均产出的结果——也就意味着,它的产出也是“平均水平”。而真正卓越的技术与创意,则来源于将“抽象意图、创造精神”与“具体技术”结合起来的那种人类独特智慧。AI只能模拟这种能力,但无法拥有真正的“灵魂”。 如同禅宗或李小龙所说:AI只不过是“指月之指”,却非“月亮本身”。 智能 vs. 智慧:开发者最宝贵的是整合能力 就像《龙与地下城》这类角色扮演游戏中所设定的,“智力”是“知道在下雨”,而“智慧”是“知道要躲雨”。换句话说,智能告诉人“怎么做”,而智慧告诉人“做什么”。 从更深层次来看,智能倾向于“拆解”,而智慧追求“整合”。智能关注局部,智慧把握整体。而当“智能”可以被人工制造,我们就更需要借助智慧去驾驭它。 软件开发者的独特价值,不在于机械实现,而在于其视角——对系统、目标、用户体验的整合能力。在AI制造的大量“理解缺失”的内容中,真正稀缺的是“深度理解”。而理解,不论是“怎么做”还是“为何要做”,永远都是最具价值的财富。 持续追问“为什么”,理解得更深——其余的一切,都会水到渠成。
谷歌收获成果:OpenAI收购Windsurf计划告吹
OpenAI原计划以30亿美元收购风靡一时的AI编程初创公司Windsurf,然而这一交易已正式宣告失败。出人意料的是,谷歌迅速出手,招募了Windsurf的首席执行官Varun Mohan、联合创始人Douglas Chen以及多名关键研究人员加入旗下的Google DeepMind部门。据《The Verge》报道,这一举动凸显了当今科技行业的新竞争策略:科技巨头绕开监管障碍,以高薪挖角的方式“吞下”新兴竞争对手最有价值的资产——人才与技术。 据悉,谷歌为此次“收编”支付了24亿美元,获得了对部分Windsurf技术的非独家许可,但未获得该公司的股权或控制权。这使得Windsurf仍保留约250人的大部分团队,由一位临时首席执行官领导继续运营。与此同时,原领导团队将把重心转向在谷歌Gemini模型上的代理式编程(agentic coding)开发工作。 新战场的形成 这场收购失败的前奏早在几周前便已埋下。作为OpenAI的重要竞争对手,Anthropic率先出招,切断了Windsurf对其Claude模型的访问权限。这一举动恰逢OpenAI意图收购Windsurf的消息传出。Anthropic联合创始人Jared Kaplan对此表示:“我们认为向OpenAI出售Claude不太合理。”这项策略性封锁旨在防止竞争对手从其模型中获得训练数据。 然而,这一防御行为反而为谷歌提供了切入点。在失去Claude支持后,Windsurf迅速转向并推荐用户使用谷歌的Gemini 2.5 Pro模型。这一合作关系或许为谷歌后续提出的“收编式收购”埋下了伏笔。 这场收购风波背后,是整个AI领域愈演愈烈的人才大战。Meta也在积极吸纳顶尖AI专家以强化旗下的“超级智能实验室”(Superintelligence Labs),希望弥补Llama 4模型发布失败带来的差距。据报道,Meta为吸引人才开出高达4年3亿美元的薪酬方案,CEO马克·扎克伯格甚至亲自参与招揽行动。这一策略已成功吸引前苹果基础模型主管彭汝明,以及前Scale AI首席执行官Alexandr Wang等重量级人物加入。 在这样的高压竞争环境下,“人才收购”(acquihire)正成为巨头公司的关键武器。通过高薪招揽关键团队成员并许可相关技术,而非进行正式收购,像谷歌、微软这样的公司既能增强自身能力,又能削弱潜在竞争者。与此同时,这一方式也规避了数十亿美元规模收购案所需面对的监管审查。 类似的战略谷歌早已操作过:此前便通过此方式“招募”了Character.AI的首席执行官。微软也曾在招揽Inflection AI的领导层后采用同样的操作模式。 后果与代价 Windsurf成为这场巨头博弈的直接受害者。随着创始团队及技术骨干的流失,该公司的未来愈发扑朔迷离,面临与其他初创企业相似的困境。此前,微软挖走Inflection AI的创始人后,该公司不得不彻底转型,放弃原有的消费级AI产品方向。Scale AI也因Meta聘用其CEO而传出客户流失的消息。 值得注意的是,Windsurf在交易破裂前已实现1亿美元的年度经常性收入,但在失去创始团队和部分技术之后,公司发展前景变得不明朗。这一事件揭示了AI产业生态中的残酷现实:初创公司若无法与大型实验室匹敌,昔日的合作伙伴很可能在某个节点转身成为“掠夺者”,抽走最宝贵的资源,留下空壳公司艰难维持。 然而,亦有观点认为,Windsurf创始人此举或许是主动的战略退出。在面对谷歌、OpenAI与Anthropic等巨头陆续发布越来越强大的AI编程工具时,Windsurf与Cursor等小型公司可能难以抵抗技术和资本的双重压力。创始团队或已预见公司在未来终将式微,因此选择加入一个无法打败的对手,以保留影响力并继续推动技术前沿的发展。
谷歌推出Vertex AI Memory Bank:为AI智能体带来持久记忆,支持连续对话
AI智能体正逐步走向商业化,但“缺乏记忆”长期以来一直是开发中的核心难题。当前许多AI智能体无法记住用户的历史互动,导致每次对话都被视为首次交流。这种缺陷带来了重复提问、忽略用户偏好、缺乏个性化等问题,不仅让用户感到沮丧,也给开发者带来极大挑战。 过去,开发者尝试通过将整段对话历史直接注入大语言模型(LLM)的上下文窗口来解决这一问题,但这种方法计算成本高昂,响应速度变慢,且容易导致模型输出质量下降。例如,加入过多无关信息容易引发“中间信息丢失”(lost in the middle)或“上下文腐烂”(context rot)等现象。 Vertex AI Memory Bank正式发布 为突破上述瓶颈,谷歌云宣布在Vertex AI Agent Engine中推出Memory Bank服务的公开预览版本。这是一项全托管的新型服务,旨在帮助开发者构建具备持久记忆能力的个性化对话智能体,使互动更加自然、连贯并具备上下文感知能力。 例如,在医疗健康场景中,某用户曾在以往会话中提及过敏史或某些症状,Memory Bank能够让智能体在当前对话中准确调用这些信息,从而提供更贴合用户实际情况的建议。 Memory Bank的关键优势包括: 工作原理解析 Memory Bank依托谷歌Gemini模型与最新研究成果,采用多阶段智能处理流程实现对“记忆”的构建与应用: 该流程基于谷歌研究团队发表于ACL 2025的最新研究方法,采用主题导向的学习与召回机制,为智能体记忆功能树立了行业新标准。例如,个性化美容助手可以根据用户不断变化的肤质,精准推荐合适的护肤产品。 如何使用Memory Bank Memory Bank已集成至谷歌的Agent Development Kit(ADK)与Agent Engine Sessions之中。开发者只需使用ADK定义智能体,并启用Agent Engine Sessions,即可自动管理每次会话的历史数据。而Memory Bank的接入则进一步实现跨会话的长期记忆。 开发者可通过以下两种主要方式接入Memory Bank: 对于首次使用谷歌云的开发者,ADK支持快捷注册模式。用户可使用Gmail账户注册Agent Engine Sessions与Memory Bank,获取API密钥并在免费额度内构建原型项目,后续也可无缝迁移至完整的谷歌云项目用于生产部署。 Memory Bank的发布标志着AI智能体进入真正具备“记忆力”的新阶段,为构建更智能、更人性化的AI交互系统奠定了坚实基础。
谷歌在软件工程领域应用AI的进展与未来展望
随着人工智能辅助软件开发的不断深入,谷歌在其内部工具中已经取得了显著进展,并对未来五年的发展趋势做出了展望。本文概述了谷歌在软件工程环境中推动AI应用的最新成果,并分享了构建高效AI产品的经验与方法。 在2019年,不论是在谷歌还是其他技术公司,大多数软件工程师虽然已耳闻机器学习的进展,并知晓深度学习在计算机视觉、语言翻译等领域的显著成效,但他们尚未真正意识到机器学习可以对软件工程工作带来哪些切实帮助。 然而,仅仅五年后的2024年,软件开发领域对AI技术的热情已然高涨。大量工程师已经在使用机器学习驱动的自动补全功能,无论是来自公司内部的代码补全工具(如谷歌内部使用的系统),还是商业产品。 谷歌此次公布的AI能力提升集中体现在对内部软件开发工具的持续改造上。工程团队负责构建谷歌工程师使用的开发环境,覆盖了内循环(如集成开发环境IDE、代码评审、代码搜索)以及外循环工作场景(如缺陷管理、项目规划)。这些工具的改进对开发者的生产力与满意度产生了直接影响,而这两项指标也在被持续跟踪与评估。 技术挑战与策略 人工智能技术发展迅猛,导致在实际产品化过程中常常面临三大挑战:选题优先级难以确定、从技术原型到可用产品存在巨大差距、用户体验和模型效果难以协调。为此,谷歌团队采用三项核心原则指导产品部署: 大语言模型在软件开发中的应用 随着Transformer架构的普及,谷歌开始探索将大语言模型(LLM)应用于软件开发的方式。其中,基于LLM的代码补全已成为AI在该领域最广泛的应用形式。这一用法天然适配于利用代码本身作为训练数据,且补全体验也与开发者早已熟悉的IDE中单词级自动补全功能相似。同时,该功能的影响也可粗略通过“AI生成字符数占总字符数的比例”来衡量。 根据团队之前发布的博客,相关用户体验已被持续优化,并记录了显著增长:当前谷歌工程师对AI代码建议的接受率达到37%,AI协助完成了大约50%的代码字符量。这意味着,一半的代码由AI完成,开发者则可以将更多时间投入到代码设计与架构之中。 提升的来源包括模型本身(更大的模型、更强的编程能力、上下文构建策略、基于使用日志的模型调优)以及用户体验的提升。这样的“模型+UX”循环对于从真实行为中学习至关重要,而非仅依赖人工合成的数据。 数据与模型训练 谷歌依托多年积累的高质量内部工程数据,为AI模型提供了丰富的训练素材。这些数据覆盖了代码编辑、构建结果、修复构建失败、代码复制与修改、代码评审意见的处理、提交等详细行为,并形成了带任务标注的训练语料。这一训练体系最早在DIDACT博客中做出详细描述,当前团队正将这些数据与新一代基础模型相结合,探索更高质量的AI能力。 AI功能部署与扩展 继代码补全功能之后,谷歌还部署了以下AI能力: 上述应用已被广泛采用,且在工业级场景中带来了可量化的生产力提升。 实践经验总结 谷歌团队从这些部署中总结出以下重要经验: 未来展望 基于上述成果,谷歌团队将进一步集成最新的Gemini系列基础模型与DIDACT工程数据,扩展AI在软件开发中的应用边界。 放眼整个行业,ML驱动的代码补全已成为推动开发效率的重要因素。下一波提升将来源于以下方向: 为推动下一代AI能力的发展,行业与研究界亟需构建更具代表性的公共基准测试。目前的基准(如HumanEval)主要聚焦代码生成,而在企业场景中,对诸如代码迁移、线上调试等任务的评估标准更加紧迫。已有如SWEBench等用于Bug修复的基准被提出,同时也已有部分原型产品(如Cognition AI)面向这些基准进行开发。谷歌方面呼吁社区协作,提出更广泛的基准测试覆盖,以加速软件工程领域AI能力的落地与普及。
公众反应揭示多元观点:从赞誉Grok 4的性能到质疑xAI的商业策略
在Grok 4发布之后,公众的反应呈现出高度分化的态势。一方面,其卓越性能引发了高度评价;另一方面,其高达每月300美元的“SuperGrok Heavy”订阅费用则引发了关于技术公平性和可及性的激烈讨论。 部分观察者将此高级订阅视为xAI在商业战略上的一次关键布局,旨在面向高价值客户和企业用户提供前沿AI能力。然而,批评者则指出,这种高定价极可能加剧数字鸿沟,使自由职业者、小型企业和财力有限的开发者被排除在尖端AI工具之外,从而限制了技术创新在更广泛人群中的扩散与应用。 更有甚者,Grok先前版本中出现的反犹内容处理不当,进一步加剧了外界对xAI在AI安全性与偏见治理方面的担忧。尽管xAI后来更新了Grok的准则,并移除了允许“政治不正确但可被证实”言论的条款,但这一过程暴露出技术创新与伦理监管之间的张力仍未得到妥善平衡。 AI订阅经济的转折点:高级定价与可及性之间的博弈 Grok 4的发布,连同“SuperGrok Heavy”这一每月300美元的高级订阅选项,被广泛认为是AI产品商业化路径上的重大转折。Elon Musk领导下的xAI希望借此切入企业级用户市场,打造高端、专属的AI解决方案。 然而,这种激进的定价策略也引发了广泛讨论。一方面,它可能树立起一种行业标杆,引导其他AI公司重新评估高阶产品的商业价值;另一方面,它也潜藏风险,即AI能力高度集中在愿意、并有能力支付高价的少数人手中。这种分层定价结构不仅挑战了AI技术的普及理念,也引发了人们对于数字公平性的深切担忧。 多个行业评论指出,如果未来AI产品普遍采取此类高价分级方式,可能导致中小企业和独立开发者在技术浪潮中被边缘化,进一步固化经济上的不平等。长远来看,xAI的这套商业模式是否成功,将取决于其是否能向用户清晰传达“高价=高价值”的理念,并赢得目标市场的认可。 社会与政治层面:偏见、平台、与公众信任的重塑 Grok 4的社会影响远超其技术范畴,尤其是围绕其历史上的反犹争议所引发的伦理辩论。尽管xAI宣称对Grok的仇恨言论过滤机制进行了优化,但这一修复举措本身也折射出AI系统在“吸收”和“再现”社会偏见方面的高风险性。 此外,Grok 4与社交平台X的深度集成进一步放大了其社会传播效应。前CEO琳达·亚卡里诺(Linda Yaccarino)因平台伦理危机而辞职,使得公众对xAI和X在信息安全与内容治理上的能力产生质疑。尤其在仇恨言论、性别刻板印象和极端思想传播等领域,Grok 4的表现被认为是AI系统潜在伤害的真实写照。 观察人士认为,若xAI无法持续强化对AI偏见、伦理漏洞的防范机制,公众对整个AI行业的信任基础将被动摇。Grok 4的发布虽为AI发展注入动力,但其所引发的争议,也正在促使监管者、用户和技术公司共同重塑“可信AI”的定义。 技术进展与API开放:开发者的机会与挑战并存 尽管伴随争议,Grok 4在多个技术测试中的表现仍受到肯定,包括其在“人类最终考试”(Humanity’s Last Exam)和ARC-AGI-2基准测试中的领先成绩。xAI承诺将在未来几个月发布Grok相关的代码生成、多模态交互、视频生成等扩展模型,并开放API接口供开发者集成使用。 这将为AI在教育、金融、设计、客服等多个行业带来广阔应用前景。然而,开发者社区也表达了对“工具易滥用”“接入门槛过高”及“服务价格不可持续”的担忧。特别是在缺乏细致权限控制与内容审核机制的情况下,高级AI模型的开放可能在某些领域引发监管风险。 因此,如何在促进开发者生态繁荣的同时,严控风险点、确保公平接入,已成为xAI未来发展必须应对的战略挑战。 结语:Grok 4的未来,是行业标准还是分裂象征? Grok 4的发布无疑是Elon Musk和xAI向AI尖端技术发起的重要进击,其超凡性能和雄心勃勃的市场定价,为整个行业树立了一个引人瞩目的新高点。 然而,这一高点背后,却是伦理失误、公众争议与结构性不平等所交织的复杂现实。Grok 4所引发的,不仅是一次技术讨论,更是一场关于“谁能拥有未来”的社会博弈。 未来,xAI若想真正建立行业信任,不仅需持续优化其产品的性能与稳定性,更要以身作则,在伦理治理、社会责任和普惠接入上成为行业的领跑者。否则,Grok 4或许不仅无法成为AI革新的象征,反而将成为数字世界分裂与失衡的缩影。
“从未真正成为的CEO”:琳达·亚卡里诺在马斯克的X上为何注定失败
2023年5月,NBC广告高管琳达·亚卡里诺(Linda Yaccarino)加入当时仍名为Twitter的公司,肩负着重建与广告商关系的重任——此前,埃隆·马斯克接手该平台后的混乱让许多品牌望而却步。然而,仅在她上任几周后,马斯克发布的一则反犹推文再次导致迪士尼、派拉蒙、NBC环球、康卡斯特、狮门和华纳兄弟探索等品牌暂停在该平台投放广告。 尽管马斯克后来在一场会议上称那条推文是“自己发过最糟糕的内容”并道歉,但他同时对广告商发出侮辱性信息,特别是针对迪士尼CEO鲍勃·艾格(Bob Iger)表示: “我不想他们在这里投广告。如果你们想用广告或金钱勒索我,那就滚吧。滚!明白了吗?嘿,鲍勃,如果你就在台下,我就是这么想的。” 当时,亚卡里诺也坐在会场中。 在接下来的两年里,亚卡里诺一直面对着马斯克的反复无常、平台上持续存在的内容审核和仇恨言论问题、与广告主愈发紧张的关系,以及老板与特朗普政府关系所引发的广泛争议。在部分事件中她保持沉默,在其他场合则选择为公司辩护。 然而专家指出,从一开始就明显看出,亚卡里诺不过是名义上的CEO。 福雷斯特研究公司副总裁兼研究总监Mike Proulx表示: “事实是,埃隆·马斯克始终是X的实际掌舵人。她被赋予的职责本就极为有限。就背景和权力范围而言,她更像是一位首席广告官,而非真正的CEO。” 即便在她扮演“广告主管”的角色中,马斯克频繁发帖、冲动决策,以及对“觉醒文化”(woke)和社交平台方向的极端反感,也使她的工作处处受阻。 Proulx总结说: “她的辞职唯一令人惊讶的地方在于,这件事竟然拖到了现在才发生。” 平台上的仇恨言论与AI丑闻再度发酵 就在本周,X平台整合的AI聊天机器人Grok因多次发布反犹内容(包括赞扬希特勒的言论)而引发新一轮风波。根据xAI此前发布的准则,Grok被指示“可发表政治不正确但合理的言论”,而该条准则已在周二晚间被悄然删除。 这也使得亚卡里诺的任期几乎被两起反犹事件所“首尾包围”——马斯克本人发布的推文和Grok所引发的争议。 自2023年起,多个机构就平台上的仇恨言论提出警告。例如,“反数字仇恨中心”(Center for Countering Digital Hate)发布的报告显示X平台上存在大量未被审查的反犹和其他仇恨内容,X公司对此的回应竟是提起诉讼,但最终诉讼被驳回。 类似地,“美国媒体观察”(Media Matters for America)指出,多个品牌广告被展示在亲纳粹推文旁,随后引发又一轮广告商大撤离。X也对该机构发起诉讼。 2025年初,马斯克在一场特朗普就职集会上被指连续做出纳粹敬礼手势,他对此轻描淡写,甚至在平台上发布与纳粹相关的双关笑话。亚卡里诺未做正式回应,却转发了一条带有笑脸表情符号的贴文,表明了她对老板玩笑的某种“默认”。 随着用户流向Bluesky等替代平台,甚至Reddit社区开始封禁X链接,这一事件也进一步加剧了外界对X明显右倾趋势的担忧。 从“全球广场”到“马斯克个人扩音器” 加入X后,亚卡里诺曾试图通过邀请名人、建立合作关系、修复品牌形象来重振平台声誉,并协助实现马斯克构想中的“万事应用”(everything app),融合支付、AI、直播、消息和社交功能。 她曾率领团队(包括马斯克本人)前往2023年戛纳国际创意节,与业界领袖接洽,并积极招募媒体人。例如,她邀请前CNN主持人唐·莱蒙(Don Lemon)在X上开设节目,以呼应前福克斯主持人塔克·卡尔森(Tucker Carlson)已入驻X的举动。 然而,莱蒙在首期节目中采访马斯克时因询问其用药问题发生争执,节目发布前,马斯克便已通知莱蒙的经纪人终止合作。此后,平台再也没有成功吸引主流内容创作者。 两年过去,X不但未能成为主流视频平台或“万事通”应用,反而越来越沦为马斯克个人发声渠道——发布抱怨、宣传旗下公司、或在社交媒体上与特朗普既唱和又翻脸。平台上充斥着极右翼网红、色情垃圾账号和模因账户,大量媒体已选择远离X。假信息和极端内容猖獗,有时甚至来自马斯克本人。 广告复苏失败与企业声誉危机 尽管亚卡里诺曾在2024年成功吸引多家企业短暂恢复广告合作,尤其在马斯克与白宫关系最紧密时期,但根据市场研究公司eMarketer数据,X平台广告收入始终未能恢复至马斯克接手前的水平。 《华尔街日报》更报道,X甚至曾威胁大型公司如Verizon,若不在平台投放广告将面临法律诉讼。尽管亚卡里诺否认相关指控,但这进一步损害了其职业声誉。 在经历两年为老板及平台收拾烂摊子的生涯后,亚卡里诺于本周宣布辞职。马斯克对此只简单回应: “感谢你的贡献。” 随后几分钟内,他又开始在X上发帖讨论SpaceX、人工智能,以及Grok为何“变成纳粹”。 结语:从未拥有权力的CEO 专家普遍认为,从她上任第一天起,亚卡里诺就并未真正掌握权力。她本应带领X走向转型,但最终只是成为马斯克众多争议行为的“公关防火墙”。 在一个由不可预测的亿万富翁主导的公司里,哪怕最资深的高管,也只能扮演一位随时可以牺牲的角色。亚卡里诺的失败,不是因为她不够努力,而是因为她从未被赋予成功所必需的空间和自由。
OpenAI计划推出AI浏览器,正面挑战谷歌Chrome地位
OpenAI正准备推出一款搭载人工智能功能的网络浏览器,试图直接挑战Alphabet旗下、市场占有率最高的谷歌Chrome浏览器。三位知情人士向路透社透露,这款浏览器预计将在未来几周内发布,并将借助AI从根本上改变用户上网的方式。 这款浏览器将整合类似ChatGPT的聊天界面,并支持AI代理任务,使得用户不必频繁点击跳转网页,即可在对话窗口中完成查询和操作。这一策略意图打破传统网页浏览的流程,并让更多用户行为停留在OpenAI的界面内。 知情人士指出,这款浏览器是OpenAI更大生态战略的一部分,目标是深入嵌入用户在个人生活和工作中的日常操作,从而掌握更全面的用户行为数据。这一意图也显示出OpenAI正在向谷歌赖以盈利的核心领域——用户数据和广告定向——发起正面进攻。 若OpenAI成功将该浏览器推广至其现有的5亿周活跃用户群体,那么它将直接威胁谷歌广告收入体系的关键支柱。Chrome浏览器一直是Alphabet广告业务的核心工具,不仅为谷歌带来精准的广告定向数据,还将大多数搜索流量默认导向其自家搜索引擎。 OpenAI方面目前对此不予置评,而提供消息的相关人士因未获授权公开发言,选择匿名。 自2022年底推出AI聊天机器人ChatGPT后,OpenAI在科技行业引发了一场AI革命。如今面临来自谷歌及初创公司Anthropic的激烈竞争,该公司正寻找新的增长路径。 今年5月,OpenAI曾宣布将进军硬件领域,并斥资65亿美元收购由苹果前首席设计师Jony Ive创办的AI设备公司io。浏览器的推出将为OpenAI提供一个关键入口,使其能将自研AI代理产品(如Operator)无缝整合至用户的上网体验中,进而实现“由AI代理用户操作”的目标。 随着OpenAI持续扩展其产品矩阵,这一浏览器的发布标志着其正式向谷歌长期主导的互联网入口地带迈出关键一步。
CTO揭示:AI如何改变了2025年软件开发者的招聘标准
AI正以前所未有的方式重塑软件开发领域:每位初级开发者都似乎变成了代码工厂,而高级开发者却仿佛成了打扫残局的“清洁工”。 这是当前整个行业正在面对的残酷现实。尽管AI的倡导者们承诺所有人都将成为“10倍效率的开发者”,但实际发生的是:企业正在被海量看似完美、却在生产环境中崩溃的AI生成代码所困扰。 因此,本次特别采访了12位在2025年仍处于招聘一线的CTO与工程负责人,深入了解他们如今在招募开发者时所最看重的技能。 问题很简单:“因为AI的广泛使用,您在招聘开发者时现在最重视、而过去没那么在意的技能是什么?” 结果令人惊讶:他们要的并不是所谓的“提示工程师”(prompt engineer)。 这些技术领导者的答案印证了资深开发者早就猜到的事实:最有价值的开发者,不是那些能调用AI写出代码的人,而是那些能解决AI带来的问题的人。 批判性思维优先于代码产出 1. “AI常常自信地给出错误答案”许多技术领导者表示,如今他们最看重的就是开发者能否质疑AI输出,而不是盲目接受。Geniusee联合创始人兼CEO Taras Tymoshchuk 指出: “AI会自信地输出错误答案,开发者必须学会怀疑。质量的关键是验证假设的能力。” 他们的面试流程已发生变化: 2. “优秀的候选人把AI当成初级队友”WeblineGlobal联合创始人兼CTO Vipul Mehta 表示: “我如今更看重候选人能否独立验证AI生成的代码,而不是盲信AI。” 他会让面试者使用AI工具生成代码,然后分析潜在风险或指出测试思路。那些能冷静拆解AI结果、并提出改进建议的候选人尤为出色。 3. “一次审慎的检查避免了患者安全隐患”OSP Labs创始人兼CEO Riken Shah 讲述了一个典型案例:一位应聘者在测试中指出了AI代码处理HL7时间戳的方式存在隐患,可能导致患者生命体征数据延迟同步。这个发现避免了一场可能引发法律责任和高额返工成本的危机。 4. “我们要的是能发现AI错误的人”WeblineIndia市场与人事负责人 Vikrant Bhalodia 指出: “技术评估不再只看代码的‘好坏’,更看候选人是否能站在架构、安全、稳定性等角度质疑AI建议。” 系统思维成为新竞争力 5. “AI能写代码,但无法判断系统如何扩展”Varyence CTO Jason Hishmeh 指出: “AI解放了基础编码,开发者如今更多承担设计可扩展、灵活架构的任务。人类判断力至关重要。” 他强调在面试中考查应聘者是否能抽象问题、评估系统交互、考虑未来发展。 6. “看似完美的代码,在现实环境下崩溃”Vitanur的CTO Royal Rovshan 表示: “我们现在重点考察的是系统思维,比如候选人如何优化CRM系统,或在高峰期如何减缓加载时间。” 仅了解工具已不够,能够识别潜在风险、权衡复杂因素的人才才是核心。 7. “AI生成函数,开发者构建结构”Franzy联合创始人兼CEO Alex Smereczniak 指出:…
技术哲学与人工智能机遇
人工智能的一个最具悖论性的特点在于,尽管它被誉为通向丰裕的道路,但至今最重要的财务成果却集中在稀缺性上。最直接明显的例子便是英伟达(Nvidia),其市值飙升,芯片需求远超供应: 近年来,另一个日益突出的稀缺资源是AI人才——那些真正构建和扩展模型的人才如今的薪酬甚至超过了职业运动员,这一现象的背后逻辑也不难理解: 这一点在科技行业历史中相当罕见。尽管优秀程序员一贯炙手可热,特定产品领域也曾出现激烈竞争,但在过去几十年间,科技公司本质上是各自为政的“特许经营”:谷歌主打搜索,亚马逊专注电商,Meta侧重社交媒体,微软聚焦商务应用,而苹果则以硬件设备见长。这种市场格局意味着企业的整体实力高于个体员工,从而限制了个人薪酬的天花板。 而AI的情况至少目前为止有所不同:虽然从长远来看,AI产品也可能出现分化和主导企业,但只要游戏核心还是基础模型(foundation models),所有公司就都在打一场相同的比赛,这便大幅提升了顶尖人才的议价能力。由此,能够提供更高报酬或更具吸引力使命感的公司,自然会吸引最强选手;反过来,无法满足这些条件的企业,则注定在竞争中败下阵来。 苹果的迟疑 上述观点引出当前的焦点问题:公司阵营的变化值得深入观察。以Meta和苹果近期的自由球员签约为例,彭博社报道称: 苹果公司负责AI模型开发的高级主管即将跳槽至Meta,这对苹果本已陷入困境的AI战略而言无疑是又一打击。据知情人士透露,这位名为彭荣明(Ruoming Pang)的杰出工程师,曾负责苹果基础模型团队,目前已决定离职。Pang于2021年从Alphabet跳槽至苹果,如今成为Meta“超级智能”团队的最新重要招募对象。 知情人士透露,Meta为招揽Pang开出了每年数千万美元的待遇。Meta首席执行官马克·扎克伯格近期正大举招募AI高端人才,已吸纳包括Scale AI创始人Alexandr Wang、创业者Daniel Gross以及前GitHub CEO Nat Friedman在内的多位重量级人物,同时还从OpenAI与Anthropic挖来了研究员李元志(Yuanzhi Li)和Anton Bakhtin,后者曾参与Claude模型的开发。上个月,Meta还从OpenAI批量招募了一批研究员。Meta在本周一晚间确认聘用Pang,而苹果、Pang本人、OpenAI和Anthropic均未对此发表评论。 苹果AI团队被挖角令人意外之处并不在于他们流失人才,而在于他们原本竟然拥有如此值得争抢的研究人员。毕竟,苹果早在另一项稀缺资源——Nvidia芯片采购上,就已显示出其对AI的不够投入。彭博社曾报道: 前首席财务官卢卡·梅斯特里的GPU采购策略显得过于保守,事后看来这一决策并不理想。长期以来,苹果利用市场主导地位和雄厚现金储备,控制了包括半导体和玻璃等关键部件在内的全球供应链。然而在AI芯片需求暴增之际,苹果仍采取缓慢采购的做法——这延续了其对新兴技术一贯持保留态度的战略——结果导致其模型训练速度远远落后于其他公司。苹果的一位AI团队成员指出:“当对手已将全球的GPU抢购一空时,你就不可能凭空召唤出更多资源。” 这看起来或许令人费解:一家在2024财年创造了1180亿美元自由现金流的企业,居然如此“吝啬”?但从两个角度来看,苹果的谨慎又显得合情合理。 首先,AI在短期内对苹果业务的实际影响并不大:人们仍需设备来访问AI,而苹果在高端设备市场仍处于领先地位(当然,长期来看,AI可能取代智能手机,或显著提升Android等替代平台的吸引力)。这显著削弱了苹果在GPU与人才方面进行高额投资的动机。 其次,一些AI企业所描绘的激进愿景,本身与苹果一贯的企业哲学格格不入。 科技的两种哲学 早在2018年,正是AI(当时还未进入LLM阶段)促使人们开始探讨“科技的两种哲学”:其一以谷歌和Meta为代表: 谷歌认为,计算机的角色是替人类完成任务,从而节省时间。Duplex便是其中最具代表性的案例——计算机代表用户拨打电话。谷歌的许多AI成果也体现了这一理念:Google Photos自动整理并建议修改照片;Google News为用户挑选新闻;Google Maps带用户发现周边店铺。Waymo最终登台亮相,自动驾驶汽车的出现,也可谓顺理成章。 而Meta的扎克伯格,则似乎是这一理念更极端的实践者。Meta不仅要替用户完成任务,还坚持做出用户自己“本不会做出的事”。扎克伯格身上的“救世主情结”使Meta走向了这一思路的更极端路径——即让计算机主动替人类行事。 第二种哲学则由苹果与微软代表: 在微软Build大会上,CEO萨提亚·纳德拉展现出截然不同的理念:计算机不是替人类工作,而是辅助人类提升工作效率。这种哲学隐含着不同的责任观:谷歌CEO皮查伊强调“我们对AI发展有深切责任感”,这本质上仍以公司为主导;而纳德拉认为责任在于整个行业与每一位使用者。 这一“工具型哲学”是较早期的主流理念,其最具代表性的代言人无疑是苹果的已故联合创始人乔布斯。乔布斯曾以“思维的自行车”形容计算机的作用: “小时候读到一篇科学美国人的文章,文中比较了各种生物在从A点移动到B点过程中的能量效率。秃鹰是最节能的,而人类仅排名中游。但有人做了个实验,让人骑上自行车测试结果——人类瞬间超越所有生物。这个例子对我影响极大:我们是工具制造者,能用工具极大放大自身能力。计算机正是这样一种工具,是人类思维的自行车。虽然我们刚起步,但已经见证巨大变化,而未来百年会有更令人惊叹的发展。” 四十年后的今天,乔布斯的预言得以应验:移动互联网已经彻底改变世界,而AI的影响可能更胜一筹。就本文章而言,更值得关注的是商业机遇与企业哲学的互动关系。 苹果的立场十分清晰: 苹果的谨慎源于其认为AI对自身业务的直接回报不大,也不太担心潜在风险。其“工具偏好”哲学让苹果更愿意将AI作为第三方App形式接入iPhone。苹果作为平台公司,其任务不是主导AI,而是确保开发者能在其平台上提供AI应用。 与此同时,Meta的激进策略亦在逻辑之中:AI为其提供巨大机会(同时也是威胁——广告业务最稀缺的资源是用户时间),而其哲学是让计算机“主动代劳”。 感觉幸运吗? 另一种分析公司AI战略的方法,是借助已故哈佛教授克莱顿·克里斯滕森提出的“延续性与颠覆性创新”框架: 大多数新技术属于延续性创新,即提升已有产品在传统市场中的性能。而颠覆性创新则在短期内性能更差,但带来完全不同的价值主张,满足的是小众新兴用户的需求——通常更便宜、更简单、更便捷。 生成式AI对谷歌而言究竟是延续性还是颠覆性创新,至今仍无定论。谷歌在基础设施与研究方面具有深厚积累,AI技术可增强其广告与云服务,但其核心搜索业务的变现逻辑却可能遭遇挑战。 Meta没有搜索业务包袱,AI显然是延续性技术,因此其敢于重金投入。 问题在于谷歌:为何其也大力投入AI?答案或许藏在其创始愿景中——“I’m Feeling Lucky”(我感觉幸运)这个按钮象征着谷歌创始人对AI与精准搜索的信仰。即便该按钮后来已形同虚设,其象征意义仍深远。 谷歌愿意冒商业模式的风险追求AI技术本身,或许意味着它最终有望实现AI转型。 微软、OpenAI与Anthropic 上述分析虽适用于苹果、Meta与谷歌,但在微软、OpenAI与Anthropic身上还需更多补充。 微软自身并无强大基础模型,但投资了OpenAI,其核心AI产品是Copilot——正是典型的“工具哲学”产物。但挑战在于:员工是否愿意改变工作方式来适应这些工具?Bloomberg报道称: 微软销售人员正面临巨大压力,而OpenAI已拥有300万企业用户,增长迅猛。尽管Copilot在众多企业中使用,但面对与ChatGPT的直接竞争,微软销售团队难以找到差异化卖点。 这说明:只要AI使用依赖员工自发意愿,ChatGPT这类消费者认知度更高的产品更具优势。OpenAI事实上也和微软面临相同挑战。 相反,Anthropic的战略截然不同:其目标是打造“代理型AI”,即替人类完成任务的智能体。Claude系列的产品强调“完成任务”而非“辅助用户”。Anthropic的目标是用AI取代某些工作,而非增强个体效率。 这与20世纪主机时代的软件(如会计与ERP)如出一辙:AI替代后台职能,让企业受益,由高管推动实施,而无需依赖员工主动改变行为。 这也解释了为何Meta能吸引更多OpenAI研究员:许多研究者对“AI主导一切”的愿景更具热情,而非仅仅把AI视作工具。由此,传统工具厂商也不得不与这些“信仰者”合作。…
Google AI 刚刚开源 MCP 数据库工具箱,让 AI 代理安全高效地查询数据库
https://github.com/googleapis/genai-toolbox Google 日前发布了 MCP Toolbox for Databases,这是一款新开源的模块,属于其 GenAI Toolbox 工具集的一部分,旨在简化 SQL 数据库与 AI 代理集成的流程。该发布是 Google 推动 Model Context Protocol(MCP) 战略的一部分,该协议是一种标准化方式,允许语言模型通过结构化、类型化接口与外部系统(包括工具、API 和数据库)交互。 这款工具箱回应了一个日益突出的需求:使 AI 代理能够以安全、可扩展和高效的方式与结构化数据存储(如 PostgreSQL 和 MySQL)交互。传统上,实现这类集成通常需要处理身份验证、连接管理、模式对齐(schema alignment)与安全控制等,过程复杂繁琐。MCP Toolbox 极大减少了这类负担,使得只需不到 10 行 Python 代码和极少配置,就能实现集成。 AI 工作流中的关键意义 数据库是存储与查询操作数据与分析数据的核心。在企业与生产场景中,AI 代理需要访问这些数据源以完成如报表生成、客户支持、系统监控、决策自动化等任务。然而,将大型语言模型(LLM)直接连接至 SQL 数据库,可能引发包括不安全查询生成、连接生命周期管理不善、敏感凭证暴露等一系列操作与安全问题。 MCP Toolbox for Databases 解决了这些问题,提供以下功能: 技术亮点 极简配置,最大可用性 开发者只需基于配置定义数据库类型与环境,工具箱便能自动处理凭证与连接,无需手动管理。这种抽象降低了开发负担与风险,特别是在敏感或多环境部署场景下尤为重要。 原生支持 MCP 工具协议 通过 MCP Toolbox 生成的所有工具都符合…