人工智能的一个最具悖论性的特点在于,尽管它被誉为通向丰裕的道路,但至今最重要的财务成果却集中在稀缺性上。最直接明显的例子便是英伟达(Nvidia),其市值飙升,芯片需求远超供应: 近年来,另一个日益突出的稀缺资源是AI人才——那些真正构建和扩展模型的人才如今的薪酬甚至超过了职业运动员,这一现象的背后逻辑也不难理解: 这一点在科技行业历史中相当罕见。尽管优秀程序员一贯炙手可热,特定产品领域也曾出现激烈竞争,但在过去几十年间,科技公司本质上是各自为政的“特许经营”:谷歌主打搜索,亚马逊专注电商,Meta侧重社交媒体,微软聚焦商务应用,而苹果则以硬件设备见长。这种市场格局意味着企业的整体实力高于个体员工,从而限制了个人薪酬的天花板。 而AI的情况至少目前为止有所不同:虽然从长远来看,AI产品也可能出现分化和主导企业,但只要游戏核心还是基础模型(foundation models),所有公司就都在打一场相同的比赛,这便大幅提升了顶尖人才的议价能力。由此,能够提供更高报酬或更具吸引力使命感的公司,自然会吸引最强选手;反过来,无法满足这些条件的企业,则注定在竞争中败下阵来。 苹果的迟疑 上述观点引出当前的焦点问题:公司阵营的变化值得深入观察。以Meta和苹果近期的自由球员签约为例,彭博社报道称: 苹果公司负责AI模型开发的高级主管即将跳槽至Meta,这对苹果本已陷入困境的AI战略而言无疑是又一打击。据知情人士透露,这位名为彭荣明(Ruoming Pang)的杰出工程师,曾负责苹果基础模型团队,目前已决定离职。Pang于2021年从Alphabet跳槽至苹果,如今成为Meta“超级智能”团队的最新重要招募对象。 知情人士透露,Meta为招揽Pang开出了每年数千万美元的待遇。Meta首席执行官马克·扎克伯格近期正大举招募AI高端人才,已吸纳包括Scale AI创始人Alexandr Wang、创业者Daniel Gross以及前GitHub CEO Nat Friedman在内的多位重量级人物,同时还从OpenAI与Anthropic挖来了研究员李元志(Yuanzhi Li)和Anton Bakhtin,后者曾参与Claude模型的开发。上个月,Meta还从OpenAI批量招募了一批研究员。Meta在本周一晚间确认聘用Pang,而苹果、Pang本人、OpenAI和Anthropic均未对此发表评论。 苹果AI团队被挖角令人意外之处并不在于他们流失人才,而在于他们原本竟然拥有如此值得争抢的研究人员。毕竟,苹果早在另一项稀缺资源——Nvidia芯片采购上,就已显示出其对AI的不够投入。彭博社曾报道: 前首席财务官卢卡·梅斯特里的GPU采购策略显得过于保守,事后看来这一决策并不理想。长期以来,苹果利用市场主导地位和雄厚现金储备,控制了包括半导体和玻璃等关键部件在内的全球供应链。然而在AI芯片需求暴增之际,苹果仍采取缓慢采购的做法——这延续了其对新兴技术一贯持保留态度的战略——结果导致其模型训练速度远远落后于其他公司。苹果的一位AI团队成员指出:“当对手已将全球的GPU抢购一空时,你就不可能凭空召唤出更多资源。” 这看起来或许令人费解:一家在2024财年创造了1180亿美元自由现金流的企业,居然如此“吝啬”?但从两个角度来看,苹果的谨慎又显得合情合理。 首先,AI在短期内对苹果业务的实际影响并不大:人们仍需设备来访问AI,而苹果在高端设备市场仍处于领先地位(当然,长期来看,AI可能取代智能手机,或显著提升Android等替代平台的吸引力)。这显著削弱了苹果在GPU与人才方面进行高额投资的动机。 其次,一些AI企业所描绘的激进愿景,本身与苹果一贯的企业哲学格格不入。 科技的两种哲学 早在2018年,正是AI(当时还未进入LLM阶段)促使人们开始探讨“科技的两种哲学”:其一以谷歌和Meta为代表: 谷歌认为,计算机的角色是替人类完成任务,从而节省时间。Duplex便是其中最具代表性的案例——计算机代表用户拨打电话。谷歌的许多AI成果也体现了这一理念:Google Photos自动整理并建议修改照片;Google News为用户挑选新闻;Google Maps带用户发现周边店铺。Waymo最终登台亮相,自动驾驶汽车的出现,也可谓顺理成章。 而Meta的扎克伯格,则似乎是这一理念更极端的实践者。Meta不仅要替用户完成任务,还坚持做出用户自己“本不会做出的事”。扎克伯格身上的“救世主情结”使Meta走向了这一思路的更极端路径——即让计算机主动替人类行事。 第二种哲学则由苹果与微软代表: 在微软Build大会上,CEO萨提亚·纳德拉展现出截然不同的理念:计算机不是替人类工作,而是辅助人类提升工作效率。这种哲学隐含着不同的责任观:谷歌CEO皮查伊强调“我们对AI发展有深切责任感”,这本质上仍以公司为主导;而纳德拉认为责任在于整个行业与每一位使用者。 这一“工具型哲学”是较早期的主流理念,其最具代表性的代言人无疑是苹果的已故联合创始人乔布斯。乔布斯曾以“思维的自行车”形容计算机的作用: “小时候读到一篇科学美国人的文章,文中比较了各种生物在从A点移动到B点过程中的能量效率。秃鹰是最节能的,而人类仅排名中游。但有人做了个实验,让人骑上自行车测试结果——人类瞬间超越所有生物。这个例子对我影响极大:我们是工具制造者,能用工具极大放大自身能力。计算机正是这样一种工具,是人类思维的自行车。虽然我们刚起步,但已经见证巨大变化,而未来百年会有更令人惊叹的发展。” 四十年后的今天,乔布斯的预言得以应验:移动互联网已经彻底改变世界,而AI的影响可能更胜一筹。就本文章而言,更值得关注的是商业机遇与企业哲学的互动关系。 苹果的立场十分清晰: 苹果的谨慎源于其认为AI对自身业务的直接回报不大,也不太担心潜在风险。其“工具偏好”哲学让苹果更愿意将AI作为第三方App形式接入iPhone。苹果作为平台公司,其任务不是主导AI,而是确保开发者能在其平台上提供AI应用。 与此同时,Meta的激进策略亦在逻辑之中:AI为其提供巨大机会(同时也是威胁——广告业务最稀缺的资源是用户时间),而其哲学是让计算机“主动代劳”。 感觉幸运吗? 另一种分析公司AI战略的方法,是借助已故哈佛教授克莱顿·克里斯滕森提出的“延续性与颠覆性创新”框架: 大多数新技术属于延续性创新,即提升已有产品在传统市场中的性能。而颠覆性创新则在短期内性能更差,但带来完全不同的价值主张,满足的是小众新兴用户的需求——通常更便宜、更简单、更便捷。 生成式AI对谷歌而言究竟是延续性还是颠覆性创新,至今仍无定论。谷歌在基础设施与研究方面具有深厚积累,AI技术可增强其广告与云服务,但其核心搜索业务的变现逻辑却可能遭遇挑战。 Meta没有搜索业务包袱,AI显然是延续性技术,因此其敢于重金投入。 问题在于谷歌:为何其也大力投入AI?答案或许藏在其创始愿景中——“I’m Feeling Lucky”(我感觉幸运)这个按钮象征着谷歌创始人对AI与精准搜索的信仰。即便该按钮后来已形同虚设,其象征意义仍深远。 谷歌愿意冒商业模式的风险追求AI技术本身,或许意味着它最终有望实现AI转型。 微软、OpenAI与Anthropic 上述分析虽适用于苹果、Meta与谷歌,但在微软、OpenAI与Anthropic身上还需更多补充。 微软自身并无强大基础模型,但投资了OpenAI,其核心AI产品是Copilot——正是典型的“工具哲学”产物。但挑战在于:员工是否愿意改变工作方式来适应这些工具?Bloomberg报道称: 微软销售人员正面临巨大压力,而OpenAI已拥有300万企业用户,增长迅猛。尽管Copilot在众多企业中使用,但面对与ChatGPT的直接竞争,微软销售团队难以找到差异化卖点。 这说明:只要AI使用依赖员工自发意愿,ChatGPT这类消费者认知度更高的产品更具优势。OpenAI事实上也和微软面临相同挑战。 相反,Anthropic的战略截然不同:其目标是打造“代理型AI”,即替人类完成任务的智能体。Claude系列的产品强调“完成任务”而非“辅助用户”。Anthropic的目标是用AI取代某些工作,而非增强个体效率。 这与20世纪主机时代的软件(如会计与ERP)如出一辙:AI替代后台职能,让企业受益,由高管推动实施,而无需依赖员工主动改变行为。 这也解释了为何Meta能吸引更多OpenAI研究员:许多研究者对“AI主导一切”的愿景更具热情,而非仅仅把AI视作工具。由此,传统工具厂商也不得不与这些“信仰者”合作。…
Author: aitrendtrackers@rengongzhineng.io
Google AI 刚刚开源 MCP 数据库工具箱,让 AI 代理安全高效地查询数据库
https://github.com/googleapis/genai-toolbox Google 日前发布了 MCP Toolbox for Databases,这是一款新开源的模块,属于其 GenAI Toolbox 工具集的一部分,旨在简化 SQL 数据库与 AI 代理集成的流程。该发布是 Google 推动 Model Context Protocol(MCP) 战略的一部分,该协议是一种标准化方式,允许语言模型通过结构化、类型化接口与外部系统(包括工具、API 和数据库)交互。 这款工具箱回应了一个日益突出的需求:使 AI 代理能够以安全、可扩展和高效的方式与结构化数据存储(如 PostgreSQL 和 MySQL)交互。传统上,实现这类集成通常需要处理身份验证、连接管理、模式对齐(schema alignment)与安全控制等,过程复杂繁琐。MCP Toolbox 极大减少了这类负担,使得只需不到 10 行 Python 代码和极少配置,就能实现集成。 AI 工作流中的关键意义 数据库是存储与查询操作数据与分析数据的核心。在企业与生产场景中,AI 代理需要访问这些数据源以完成如报表生成、客户支持、系统监控、决策自动化等任务。然而,将大型语言模型(LLM)直接连接至 SQL 数据库,可能引发包括不安全查询生成、连接生命周期管理不善、敏感凭证暴露等一系列操作与安全问题。 MCP Toolbox for Databases 解决了这些问题,提供以下功能: 技术亮点 极简配置,最大可用性 开发者只需基于配置定义数据库类型与环境,工具箱便能自动处理凭证与连接,无需手动管理。这种抽象降低了开发负担与风险,特别是在敏感或多环境部署场景下尤为重要。 原生支持 MCP 工具协议 通过 MCP Toolbox 生成的所有工具都符合…
LLM探索的时代
当前的大语言模型,是过去三十年人类在互联网上自由发布海量文本内容的意外副产品。Ilya Sutskever 曾将这类信息比作“化石燃料”,即便丰富,但终究有限。一些研究指出,按照当前模型的 token 消耗速度,前沿实验室可能会在十年内耗尽高质量英文网页数据。即使这些预测过于悲观,有一点是确定的:当前的模型消耗数据的速度,远远超过了人类生成数据的速度。 David Silver 与 Richard Sutton 将接下来的阶段称为“经验时代”(Era of Experience),即未来的关键进展将依赖于学习代理自身生成的数据。在此基础上,Yiding Jiang 提出,更核心的瓶颈并不在于“拥有经验”,而在于是否能够收集到“有益于学习的经验”。下一波 AI 的进展将不再聚焦于堆叠更多参数,而是围绕“探索”——获取新颖且有价值的学习经验这一过程展开。 预训练是对探索的隐性投资 目前的大语言模型开发流程,通常包括两个阶段:首先通过大规模语料执行“下一个 token 预测”任务进行预训练,然后通过强化学习(RL)微调模型以实现特定目标。没有大规模的预训练,强化学习步骤往往难以取得有效进展,这一对比说明预训练解决了某种 RL 无法独立应对的问题。 最近研究中,一个看似矛盾的现象被广泛观察到:体积更小的模型一旦通过链式思维(Chain-of-Thought)蒸馏自更大模型,也能展现出显著的推理能力。一些人据此认为,大模型并非推理能力的前提。但该作者认为这种解读有误,应该反问:若小模型本身具备足够推理能力,为何还需要从大模型中蒸馏? 对此,一个合理的解释是:预训练其实承担了巨额“探索成本”。没有预训练的小模型,难以在自身探索过程中发现高质量解。预训练通过在多样语料上消耗海量计算资源,构建了一个丰富的采样分布,从而让模型能“靠近”正确答案的区域。蒸馏的过程,让小模型得以“继承”大模型探索所付出的代价,从而绕过了早期探索的难题。 强化学习中的学习循环大致包括以下步骤: 要让这一循环有效运行,探索阶段必须具备产生“好”轨迹的最低能力。这在 RL 中被称作“覆盖度”(coverage)。对于 LLM 来说,探索通常是从模型的自回归输出中采样,如果采样不到正确解,那后续强化阶段也就无法开展。 即便在最简单的表格型 RL 场景中(所有状态与动作都可列举),学习仍然需要大量尝试。相关理论表明,所需训练轮次会随着状态-动作组合数线性增长,随着任务时长(horizon)平方增长。而 LLM 的状态空间包括所有可能的文本前缀,动作空间是所有可能的下一个 token,两者规模极其庞大。在无先验信息的情况下,RL 几乎无法直接应用于此。 目前探索的“重活”大多由预训练完成。它提供了更优的采样分布,使得从中采样的轨迹具备更高的信息密度。但这也意味着,模型所能看到的轨迹类型受限于其训练时的 prior,要继续进步,就必须突破这一先验边界。 探索促进泛化能力 历史上,强化学习的研究多聚焦于解决单个环境,比如 Atari 游戏或 MuJoCo 模拟器。这种设置等同于在“同一个数据点”上训练与测试,无法说明模型能否应对真正的新颖情境。机器学习的核心是泛化:针对新问题创造解决方案才是价值所在。 泛化对于语言模型尤为关键。训练时 LLM 只见过有限数量的 prompt,而部署后需要应对任意用户输入,包括前所未见的任务。当前模型在“有明确奖赏信号”的任务上表现尤为出色,例如编程题或数学证明。但如果是更模糊的任务,如撰写研究报告、创作小说等,反馈稀疏或含糊,就会使训练难度和数据收集难度迅速升高。 那么,如何训练更具泛化能力的模型?深度学习的共识之一是“数据多样性提升泛化性能”,而探索正是决定数据多样性的关键因素。在监督学习中,一个标注样本会在一次前向传播中暴露全部信息,因此提升数据多样性只能靠收集更多样本。但在 RL 中,每次交互只暴露环境的一部分信息,必须收集足够多样的轨迹,才能形成对环境的完整理解。 如果采样策略太过简单,例如纯随机游走,模型很可能只接触到环境的“狭隘一角”,从而陷入过拟合。 这一问题在多环境情境中尤为明显。比如…
Alphabet 的 Isomorphic Labs 准备启动 AI 设计药物的人体试验,并完成 6 亿美元融资
2025 年 4 月,Alphabet 旗下的制药科技公司 Isomorphic Labs 完成了其首次外部融资轮,筹集资金达 6 亿美元,由 Thrive Capital 领投。 该公司由 DeepMind 的 AlphaFold 突破性成果孵化而来,正计划启动基于人工智能设计的新药的人体临床试验。据《财富》杂志报道,Isomorphic Labs 总裁兼 Google DeepMind 首席商务官 Colin Murdoch 表示,公司正在将最前沿的 AI 技术与资深药企专家结合,力图更快速、更低成本、更精确地研发新药。 Murdoch 在巴黎接受采访时透露:“现在,在我们位于伦敦国王十字的办公室里,有团队正在与 AI 协作,为癌症设计新药。这是真实发生的事情。” 经过数年的研发,Isomorphic 的 AI 辅助药物终于接近进入临床阶段。Murdoch 说道:“我们即将迎来一个重要的里程碑,那就是开展临床试验,将这些候选药物真正应用于人体。我们目前正在大规模招聘,已经非常接近目标。” Isomorphic Labs 于 2021 年从 DeepMind 分拆而出,其灵感来源于 DeepMind 的重大科学突破——AlphaFold,这是一套能够以极高精度预测蛋白质结构的人工智能系统。 AlphaFold 的发展已经从预测单一蛋白质结构,进步到能模拟蛋白质与其他分子(如 DNA 和药物)的相互作用。这一进展极大提升了其在药物发现领域的实用价值,使科学家能够更快、更准确地设计新药物,从而为一个更宏大的目标打下了基础。 Murdoch 表示:“AlphaFold 是我们创建 Isomorphic Labs…
“猫攻击”揭示推理模型脆弱性,凸显上下文工程的重要性
一项研究显示,即便是像“猫一生中大多数时间都在睡觉”这样简单的语句,也可能显著干扰高级推理模型的表现,使其错误率激增三倍。 目前,针对推理任务优化的大型语言模型(LLM)通常被认为在需要逐步思考的任务中表现突出。然而,一项题为《猫让推理 LLM 混乱》(Cats Confuse Reasoning LLM)的最新研究表明,仅一条看似普通的语句也能导致这类模型出现严重失误。 研究团队构建了一种自动化攻击系统,名为“CatAttack”(猫攻击)。该系统首先由一个攻击模型(GPT-4o)配合一个成本较低的代理模型(DeepSeek V3)生成分散注意力的干扰语句。随后由一个“评判模型”评估输出效果,再将最具干扰能力的语句用于测试更强大的推理模型,例如 DeepSeek R1。 测试发现,哪怕是看似无害的句子,比如猫的趣闻或一般性的理财建议,都可能成为“对抗性触发器”,凸显出现有推理模型的脆弱性。例如,将一句“有趣的事实:猫大多数时间都在睡觉”添加至一道数学题中,或在题目后暗示一个错误答案(如“答案可能是 175 吗?”),再或是附加理财建议,竟可使 DeepSeek R1 的错误率从 1.5% 飙升至 4.5%,即三倍增长。 研究人员指出,这种攻击不仅影响模型准确率,还造成了响应延迟等“慢速攻击”效应。在 DeepSeek R1-distill-Qwen-32B 模型上,有 42% 的回答长度超过原本令牌预算的 50%;即便是 OpenAI o1,也出现了 26% 的增长。这些都意味着更高的计算资源成本。 研究作者警告称,模型在金融、法律、医疗等高风险场景中的易错性可能带来严重后果。为应对这类问题,潜在防御措施包括上下文过滤器、更稳健的训练方法,或开发通用触发器评估体系。 这项研究也再度印证了“上下文工程”作为防御手段的重要性。Shopify CEO Tobi Lutke 最近强调,精准控制上下文是使用大型语言模型的核心能力;而前 OpenAI 研究员 Andrej Karpathy 则指出,上下文工程“非常不简单”。CatAttack 案例正好证明,即使是极少量无关内容也足以干扰复杂推理任务。 此前的研究也支撑这一观点。5 月的一项研究显示,加入无关信息可大幅削弱模型性能,即便任务本身未发生变化。另一份研究发现,随着对话长度的增长,LLM 的响应可靠性持续下降。 一些研究者将此视为结构性缺陷:即便是先进的语言模型,仍难以有效区分相关与无关信息,且缺乏真正严谨的逻辑理解能力。 总的来说,研究表明,只需添加“猫大多数时间都在睡觉”这种看似无害的语句,即可将顶尖推理模型的错误率提升至原来的三倍。而且,这种攻击方式对所有主流模型均有效,不仅增加错误率,还令输出变长、成本上升,形成所谓“慢速攻击”。研究团队强调,在诸如金融、健康等领域,这种脆弱性可能造成重大风险,亟需加强上下文控制与系统性防御机制,以确保语言模型的可靠性。
2025 年使用大模型进行软件工程:现实检验
以工程经理与资深工程师的视角,探讨大厂与初创公司的挑战,以及与 Anthropic、Cursor 等 AI 公司工程师,与 Google、Amazon 等大厂工程师,以及多位资深工程师的对话,从中归纳 AI 工具的使用状况与发展趋势。 一、两极现象 乐观派观点:AI 企业高管的话语 许多 AI 基础设施公司高管发出过类似预言: 这些言论常伴随着乐观预期,但它们往往来自拥有 AI 产品并希望推动销售的公司。 悲观派观点:开发者的失望 开发者社区不乏 AI 工具失误的案例: 这些事件表明现阶段 AI 工具仍不够可靠。 二、AI 开发工具初创公司 这些公司的工程团队强烈 Dogfood 自家产品: 三、大厂状况 Google Google 构建了紧密集成的工具链,包括 Borg、Cider、Critique、Code Search、Gemini LLM、NotebookLM 等。多名工程师表示: Amazon Amazon 推出了多款 AI 工具: 四、AI 初创企业(非开发工具) 五、资深工程师的看法 六、未解之问 总结 结语:如 Kent Beck 所言,如今“一切成本结构已被重构”,开发者正处在 AI 带来变革的风口,只要主动尝试,就能在这一时代收获创新的红利。
Neuralink 脑机接口植入者增至七人,技术正悄然推进人类-机器交互新纪元
据美国 Barrow 神经学研究所消息,目前已有七位患者接受了由埃隆·马斯克领导的 Neuralink 公司推出的 N1 脑机接口植入。这项技术允许患有颈椎脊髓损伤或肌萎缩侧索硬化症(ALS)的人仅凭意念即可操控计算机。 Neuralink 于 2025 年 2 月曾披露已有三名患者接受该设备;到 6 月,这一数字增至五名,并在同月完成了 6.5 亿美元的新一轮融资。而如今,Barrow 在推特上确认该数字已攀升至七人,Neuralink 也转发了该消息。 其中六人参与了由 Barrow 医学中心主导的 PRIME 研究项目。该项目在美国亚利桑那州菲尼克斯市展开,旨在验证 N1 植入装置、R1 手术机器人以及 N1 用户电脑应用的安全性与有效性。值得注意的是,目前美国食品药品监督管理局(FDA)尚未批准任何脑机接口设备。 手术过程由定制的机械臂完成,在患者颅骨上钻孔后植入装置。设备通过蓝牙连接至计算机,患者可用意念移动鼠标光标、打字、浏览网页,甚至畅玩电子游戏。首位受试者 Noland Arbaugh 就是如此操控电脑进行日常活动,他已完全瘫痪,却依然能够编辑网页、撰写文章、处理财务等,实现独立生活。 Arbaugh 表示:“我现在只需想象光标移动至键盘某处并点击,就能完成操作。”虽然他坦言当前的光标控制尚未达到理想的精准度,但他称这段经历是“生命中的一段传奇旅程”,改变了自己的人生态度,也坚定相信未来每个想要 BCI 的人都能拥有一个。他强调,这一技术的推广应以负责任的方式进行。 除 Arbaugh 外,其他已知患者还包括: Neuralink 目前仍在继续招募参与者,用户可在线申请加入测试。 该公司正面临来自 Echo 与 Synchron 等多家脑机接口初创企业的激烈竞争。其中 Synchron 已将其设备植入 10 名患者,且其设备即将成为首个可连接 Apple 设备的脑接口技术。不同于 Neuralink 的颅骨钻孔方式,Synchron…
英国研究团队启动合成完整人类基因组的前沿项目
据报道,英国一支科研团队正在开展一项前所未有的科学计划——从零开始合成人类 DNA,力图解答关于人类基因组的基础性问题,并彻底革新人类对健康与疾病的理解。 这一研究因其前沿性与潜在影响而引发争议。长期以来,科学界普遍对合成人类全基因组保持谨慎,担心该技术可能引发“优生婴儿”或“基因乌托邦”等伦理问题。 然而,这项被称为“合成人类基因组计划”(SynHG)的项目目前已获得全球最大医学慈善机构 Wellcome Trust 约 1170 万美元(1000 万英镑)资助。该机构表示,潜在益处远大于风险,未来该技术可用于开发新型医疗疗法,如定制细胞疗法和抗病毒组织移植等。 牛津大学教授 Jason Chin 将牵头此项研究,联合多家英国高校与研究中心开展合作。在未来五年内,该项目团队计划建立实现全基因组合成所需的关键工具、技术和方法。Chin 表示:“合成包括人类细胞在内的大型基因组的能力,或将改变人类对基因组生物学的理解,并深刻重塑生物技术与医学的未来。” 值得一提的是,Wellcome Trust 曾是 25 年前“人类基因组计划”的主要资助方之一。此次从零开始构建完整人类基因组,挑战更大,预计将耗费数年甚至数十年。Chin 团队此前已成功合成大肠杆菌的完整基因组,但与人类基因组相比,这一成果仍属“小巫见大巫”,后者的体积约大 700 倍。 分子生物学研究委员会实验室(MRC LMB)的研究组负责人 Julian Sale 向《卫报》表示:“人类基因组不仅仅是一串基因的集合,它包含大量我们尚不理解的部分,有时被称为‘基因组暗物质’。只有真正构建出基因组,才能真正理解它。” 科学家们的首个目标是在未来五到十年内合成一个完整的人类染色体。与基因编辑不同,基因组合成可在更大尺度上对 DNA 进行操作,有助于揭示大量尚未被充分理解的 DNA 区域在健康与特征形成中的作用。 不过,也有研究者担忧人类如掌握书写完整基因密码的能力,可能获得对生命系统的巨大控制力。爱丁堡大学遗传科学家 Bill Earnshaw 向 BBC 表示,该技术未来可能被用于制造合成人类、生物武器,甚至带有人类 DNA 的生物体,但他同时指出实现这些设想所需的技术仍远未成熟。 该项目正试图正面应对合成基因组所带来的伦理难题。Wellcome Trust 同时资助了一个由肯特大学 Joy Zhang 教授领导的研究计划,专注于探讨在实验室中创造人类基因组的社会与伦理问题。 Wellcome 的高级研究经理 Tom Collins 向 BBC 表示:“这项技术终将会被开发出来,所以我们选择现在就启动,是希望以尽可能负责任的方式推进,并正面面对其中的道德与伦理挑战。”
OpenAI 与 Meta 之间的人才争夺战导致裁员停滞与补偿机制调整
OpenAI 目前正陷入一场全面的人才争夺战,Meta 大举挖角该公司顶尖研究人员。据报道,Meta 又从 OpenAI 挖来了四位重要研究人员:Shengjia Zhao、Jiahui Yu、Shuchao Bi 和 Hongyu Ren,他们都是 GPT‑4.1、o3 架构及多模态系统的关键贡献者。 此前已有报道称 Meta 已招揽了 Trapit Bansal 及其余三位研究员,这意味着近期至少已有八位高知名度人才跳槽 Meta。更早之前,驻苏黎世研究中心的 Lucas Beyer、Alexander Kolesnikov 和 Xiaohua Zhai 也先后离开 OpenAI,他们曾为该 европейский research hub 的扩张发挥重要作用。公司内部对这些人才流失表现出极大担忧,一名 OpenAI 工程师曾在推特发布一条“巨大损失”的评论,但随后删除。 根据 Twitter 用户 Yuchen Jin 的发帖内容,这四位被 Meta 高调挖来的华人研究人员背景如下: 这一人才外流促使 OpenAI 领导层迅速响应。据 Wired 援引内部 Slack 备忘录,首席研究官 Mark Chen 将此形容为一场“入室盗窃”:“我现在有一种本能的感觉,就像有人闯入了我们的家园,偷走了东西。”在另一份内部备忘录中,Chen 表示公司正重新校准薪酬方案,并努力留住现有人才。 为缓解员工疲劳、提升士气,OpenAI 决定在一周内实施全公司范围的 “关门” 停工,此前员工长期每周加班至 80 小时以上。不过,领导层也警告,Meta 可能会利用这一休整期,向留守研究人员提出具有诱惑力的限时邀约。 与此同时,OpenAI 启动了新的招聘策略,从 Shopify…
Geek Out Time:使用混合路由优化多智能体 AI(AG 2)
在之前的文章里,我展示了如何用 AutoGen 搭建一个由四个领域代理—— Passion、Obstacle、Balance、Values——共同对话的职业教练聊天机器人。它能工作,但所有代理同时发声,回复显得冗杂。这次,我升级了“编排”逻辑,只让合适的代理发言,并由 LeadCoachAgent 将他们的观点汇总成精炼的行动方案。 业界路由是怎么做的? 在生产级多智能体系统里,团队很少只用一种启发式。常见的做法是 混合路由: 步骤 1:安装 pythonCopyEdit!pip install -q git+https://github.com/ag2ai/ag2.git \ openai sentence-transformers scikit-learn 步骤 2:定义代理与配置 pythonCopyEditimport os, openai from autogen import ConversableAgent, UserProxyAgent, GroupChat, GroupChatManager from sentence_transformers import SentenceTransformer from sklearn.metrics.pairwise import cosine_similarity # 🔑 设置 OpenAI API Key os.environ[“OPENAI_API_KEY”] = “sk-your-key-here” client = openai.OpenAI(api_key=os.environ[“OPENAI_API_KEY”]) llm_config = { “temperature”:…