随着“具备密码学意义的量子计算机”这一潜在威胁不断发展,替换当前已部署的非对称加密原语(如密钥交换算法ECDH,以及数字签名算法RSA、ECDSA、EdDSA)变得非常紧迫,因为这些算法容易受到Shor量子算法的攻击。然而,这种威胁并不会影响现有的对称加密算法(例如AES、SHA-2、SHA-3)及其密钥长度。 目前存在一个常见的误解:认为量子计算机会将对称密钥的安全性“减半”,从而需要使用256位密钥才能达到128位的安全性。这种理解并不准确,也不符合任何合规标准的要求,并且可能会分散人们对真正必要的后量子迁移工作的关注。这个误解通常源于对另一种量子算法——Grover算法适用范围的误解。 AES-128在面对量子计算机时仍然是安全的。SHA-256同样是安全的。在后量子迁移过程中,对称密钥长度无需改变。这一点在专家群体和标准制定机构中几乎已经形成共识,需要进一步传播到整个IT社区。本文接下来将从技术角度以及权威参考资料两方面支持这一结论。 Grover算法带来的加速 Grover算法是一种量子算法,它可以在一个大小为N的无结构搜索空间中,以大约π/4×√N次函数调用找到正确答案。 这通常被误解为:Grover算法可以在“2⁶⁴时间”内破解AES-128密钥。但在实际中并非如此,因为如果作为单线程顺序执行,这样的攻击将需要数十万年,而且一旦并行化,总成本反而会上升。 理解Grover算法需要注意以下几点: 函数f(即“预言机”)必须被实现为量子电路的一部分;所有调用必须严格串行执行;最关键的一点是:该算法无法像经典暴力破解那样高效并行化,最好的并行方式只是划分搜索空间(Zalka,1997)。 这一点至关重要,因为与经典暴力破解不同,后者可以轻松并行,而Grover算法在分割搜索空间时会削弱其平方级加速优势。 举例说明: 如果用经典方法暴力破解一个64位密钥,每次尝试耗时5纳秒,那么单CPU需要约3000年。但如果使用2¹⁶(65536)个CPU并行,每个处理2⁴⁸个密钥,总时间可以缩短到约16天,总工作量仍为2⁶⁴。 这就是为什么64位密钥被认为不安全——因为它可以高效并行破解。 现在考虑使用Grover算法攻击128位密钥。由于无法顺序执行2⁶⁴次操作,我们同样需要并行,例如使用2¹⁶台量子计算机,每台处理2¹¹²规模的搜索空间。 此时每台机器需要执行约2⁵⁶次操作,而不是经典情况下的2⁴⁸。 原因在于:平方根内部减少2¹⁶,只能带来2⁸的加速,而不是2¹⁶。 因此,总工作量反而从2⁶⁴上升到2⁷²。这说明并行化反而削弱了Grover算法的优势。 实际参数估算 为了判断是否构成现实威胁,需要进行数量级计算。 假设量子门操作时间为1微秒,并且攻击持续10年,那么最大可执行深度约为2⁴⁸。 根据最新研究(Liao和Luo,2025),实现AES-128的Grover预言机需要约2³²深度和724个逻辑量子比特。 计算结果表明,需要约2⁴⁷(约140万亿)个量子电路并行运行10年,才能破解AES-128。 从资源角度看,其总成本约为2¹⁰⁴⋅⁵级别。 与Shor算法的对比 相比之下,Shor算法破解256位椭圆曲线只需约2²⁶次操作。 两者成本差距为2⁷⁸⋅⁵倍,即约4.3×10²³倍。 这说明:破解AES-128远比破解现代公钥加密困难得多。 NIST的立场 美国国家标准与技术研究院明确认为AES-128是安全的,并将其作为后量子密码安全等级的基准。 NIST指出,Grover算法需要长时间串行执行,在现实中难以实现,因此其加速效果远低于理论值。 在其后量子密码FAQ中,NIST明确表示:没有必要将AES密钥长度加倍,AES-128在未来几十年仍然安全。 此外,在其迁移指南中也明确指出:所有AES密钥长度(128、192、256)仍然被允许使用。 BSI的观点 德国联邦信息安全局也得出了相同结论,在其最新建议中仍推荐使用AES-128、AES-192和AES-256。 同时,BSI甚至建议更早停止使用易受量子攻击的非对称算法,但并未将AES-128列入风险范围。 学术界共识 滑铁卢大学的密码学专家Samuel Jaques也独立得出类似结论。他指出: 基于Grover算法的AES-128攻击“几乎不可能成功”;构建稳定的量子计算机本身极其困难;量子退相干问题使长时间计算难以实现;实际资源需求远高于理论模型。 为什么不“顺便升级”到256位? 虽然整个后量子迁移本身就是在应对潜在风险,但资源是有限的,变更也有成本。 当前专家共识是: 非对称加密存在明确威胁,必须优先替换;对称加密不存在现实威胁,无需调整; 将不必要的更改与必要的更改混在一起,会增加复杂性、浪费资源,并延缓真正重要的迁移进程。 此外,在像TLS这样的开放生态系统中,达成一致本身就很困难。如果目标不明确,还会引发兼容性问题。 关于CNSA 2.0 确实存在一个要求使用256位密钥的标准——CNSA 2.0。但这并不是因为量子计算削弱了AES,而是因为该标准统一要求“256位安全等级”。 它甚至通过接受AES-256(而非假想的AES-512)间接承认:Grover算法并不会将安全性减半。 256位密钥是否毫无意义? 并非如此。在某些场景(如哈希碰撞攻击)中,确实需要更长输出长度。例如:为了获得128位抗碰撞性,需要256位哈希输出(这也是为什么不存在SHA-128)。 但这些属于协议设计层面的细节,通常已经由密码学工程师处理好。例如TLS协议在使用AES-128时,已经考虑了多目标攻击和随机数设计,仍能满足128位安全性。 总结 AES-128在量子时代依然安全;Grover算法的实际威胁被严重高估;当前最紧迫任务是替换易受Shor算法攻击的非对称加密;不应将资源浪费在不必要的对称密钥升级上。
苹果新任CEO的崛起:一位硬件专家在AI时代接掌公司
John Ternus必须帮助苹果在AI竞赛中迎头赶上,同时寻找下一个重磅产品 多年前,Mac Mini急需更新,而John Ternus希望自己不必通过设计大师Jony Ive来推进这件事。 在Ternus被任命为这家全球最具影响力公司之一的掌舵人之前,他曾负责苹果的Mac硬件部门。这只是他在公司内部逐步晋升过程中的众多岗位之一,也是在这个过程中,他学会了如何在这家相对封闭的公司内部复杂的政治环境中游刃有余。 当时,推动Mac Mini变得广受欢迎的AI革命还远未到来,但软件开发者已经迫切需要一款配备更新芯片的新版本。为Mini设计新的外壳可能需要Ive的工业设计团队参与,这可能导致项目延误。 据知情人士透露,在判断无需进行重大设计变更后,Ternus决定直接推进更新。他并没有过多考虑这款产品的利润潜力,而是专注于它对苹果整体生态系统的价值。这一决定体现了他的果断、对苹果文化和产品的深刻理解,以及在公司内部推动事情落地的能力。 在2017年的全球开发者大会上,Ternus站在两块大屏幕前演讲,屏幕上展示着色彩丰富的旋转图形。 在苹果25年的职业生涯中,这些特质帮助Ternus一路晋升,最终走上公司最高职位。苹果公司周一宣布,他将于9月1日正式接任CEO,使他立刻成为全球最受关注的企业领袖之一。长期担任CEO的Tim Cook将转任执行董事长。 Ternus将接替两位企业传奇人物。Steve Jobs打造了历史上最赚钱的产品——iPhone;而Cook则凭借其建立的供应链体系以及推出的服务和配套产品,从智能手机中榨取了数万亿美元的价值。 正如Cook当年接替Jobs时一样,Ternus在外界看来同样相对低调。如果说Jobs是产品远见者,Cook是供应链大师,那么Ternus则是一位介于两者之间的硬件奇才。 作为一名机械工程背景出身的高管,Ternus最近负责苹果所有产品的硬件工程。在公司历史的关键时刻,他接过了领导权。尽管苹果凭借去年秋季推出的新款iPhone仍处于巅峰状态,但公司正在努力寻找下一个爆款产品。 与此同时,苹果还必须在人工智能时代完成自我重塑。在过去几十年里,苹果定义了人们与计算设备的交互方式——从桌面到移动设备。但如今,在以类人对话能力为核心的聊天机器人这一新计算平台上,苹果已落后于竞争对手。苹果自己的语音助手Siri即将在今年进行AI升级,但相比之下,它此前的表现几乎像“尼安德特人”般落后。 Ternus谈论新款iPad Pro。 在苹果内部,几乎所有人对Ternus的评价都出奇一致:“他是个非常好的人。”与他共事过的人形容他是一位出色的协作者,能够激发团队的强烈忠诚感,同时也是一个理性冷静的声音。在过去以强势甚至“有毒”个性著称的公司环境中,他几乎没有树敌。 员工们还提到,他在会议中能够高效推进决策,使讨论保持聚焦,并且更倾向于直接与熟悉产品的一线员工沟通,而不是通过对细节了解较少的管理层。 在工作之外,Ternus热爱赛车,经常在加州的Laguna Seca赛道驾驶他的保时捷进行比赛。据熟悉他成绩的人透露,他单圈成绩在1分40秒以内,这对于一名业余车手来说相当不错。 Ternus身材高瘦,保持着大学时期游泳运动员的体型。他曾在宾夕法尼亚大学就读。“Ternus是个很好的人,”他当年的队友Andrew Berkowitz回忆道,并提到球队曾在冬天穿着泳裤在校园的Locust Walk上跑步,这是新生的年度“传统考验”。 他于1997年毕业,在一家虚拟现实初创公司工作四年后,于2001年加入苹果。 十年前,Ternus是负责开发AirPods的高管之一。如今AirPods已成为iPhone的必备配件,但在第一代产品开发过程中,围绕蓝牙连接问题,团队内部曾发生激烈争论。一位高管因此离职,另一位被调往中国,而当时还不到40岁的Ternus则成功置身事外。 他任内最重要的成就之一,是推动Mac电脑改用苹果自研芯片。这些芯片比此前使用的Intel芯片运行更快、发热更低。尽管这一转型的主要功劳归于硬件技术负责人Johny Srouji,但Ternus在其中同样发挥了关键作用。 他的外交能力和在苹果的长期经验,将在新职位上至关重要。苹果采用独特的组织结构,不像其他大公司那样设有负责独立业务线的总经理,而是按职能划分。因此,一位熟悉公司各个环节的内部人士担任CEO具有明显优势。 不过,据知情人士称,Ternus并不以大胆冒险著称,这也引发了一个问题:他是否能够提供公司在Jobs去世后被批评缺乏的产品愿景? Ternus已经成为公司文化的重要守护者。他曾主持内部讲话,激励员工,并提醒大家绝不能泄露未发布产品的信息,这延续了Jobs时代强调的保密文化。 几个月来,Ternus一直被视为Cook最可能的接班人,这也反映出苹果希望实现平稳过渡,避免其他美国老牌公司近年来出现的混乱权力更替。 苹果近期也在提升他的公众形象。在发布2025年产品线时,由Ternus亲自展示新款iPhone Air;随后他还前往伦敦,在英国旗舰店迎接首日购买新iPhone的顾客;上个月,他还发布了公司最新产品——廉价版笔记本MacBook Neo。
在凝视着迷雾中的AI前沿时的一些随想一些我一直在思考的零散想法,其中有些很可能是错误的
我原本打算针对下面的每一点写一篇长而精致的文章,配上大量精美的图表、数据以及详细分析。但后来发现这实在太费劲了。于是,这里就直接放出一些人类思维的“杂乱涂鸦”和零散想法。请随意阅读! OpenAI 和 Anthropic 现在各自占美国GDP的0.1%。到2030年,AI收入会占GDP的多少? 美国GDP大约是30万亿美元。传闻中,OpenAI 和 Anthropic 当前的收入运行率大约在300亿美元左右,也就是各自约占GDP的0.1%。如果再加上云服务和其他相关业务,AI在短短几年内就从几乎为零增长到了美国GDP的约0.25%到0.5%。如果Anthropic和OpenAI在今年年底达到1000亿美元收入(许多人认为这是可能的),那么到2026年底,AI将大约占GDP的1%。这个增长速度非常惊人。 那么到2030年呢?2035年呢?美国经济结构会如何影响AI发展放缓?又有多少生产力提升会像2000年代互联网或1980、1990年代IT那样,在GDP中“消失”而未被测量? (顺便说一句——如果AI的影响被错误测量,那么可能会导致错误的监管政策出台——AI可能只因负面(例如裁员)被指责,而忽视其正面影响(新职业、教育、医疗的进步等)。也许真正的ASI/图灵测试,是能否准确衡量现实世界的GDP和生产力增长?) AI研究社区刚刚经历了一次“分布式IPO” 当一家公司上市时,早期员工往往会突然变得非常富有。这可能会改变行为——有人开始买房、追求地位或伴侣、沉迷社交或分心于各种“人生支线任务”。当然不是每个人都会这样,但确实有一部分人会受到影响。 Meta大规模高薪挖人改变了AI人才市场,使得主要实验室不得不提高薪酬以留住研究人员。可以说,整个AI研究社区经历了一次跨公司的“IPO”。在各大实验室中,大约有50到几百名顶级研究人员因为Meta的竞价而获得了巨额财富。 就像传统IPO一样,这些人中的一部分开始在生活方式和关注点上发生变化,有人分心甚至“躺平”,也有人继续专注使命。总体而言,AI社区仍然高度使命驱动,专注于构建AGI或推动科学发展。 无论如何,在硅谷悄然发生了一件有趣的事情:不是某一家公司上市,而是一小群人“整体上市”。顶级AI研究人员几乎同时实现了“财务自由”。(或许最接近的类比是早期的加密货币持有者。) 算力上限=对短期模型能力的“人为渐近线”?这是否强化了寡头市场? 过去几年,模型能力取得了惊人的进展,同时也催生了大量应用场景和收入增长。 但与此同时,各大实验室正越来越受到算力限制。从训练规模到未来推理需求来看,算力扩张在未来两年内部分受限于Hynix、Samsung、Micron等厂商的内存供应。 这意味着所有主要实验室都处在算力受限的环境中。这种限制可能会在短期内人为地形成AI能力的“天花板”。虽然效率会提升,但在2028年前,可能没有哪一家能明显领先,从而强化LLM市场的寡头结构。 同时,实验室可能在“应用 vs 模型”之间来回调整资源。芯片的折旧周期也会改变,由于新供应不足,硬件使用寿命会被延长。 反过来说,如果某个实验室在算法上取得突破,并且没有泄露(比如在旧金山的节日聚会上被传播),那么它可能迅速实现领先,尤其是在AI自我改进循环(AI构建AI)形成的情况下。如果算力持续受限,真正的“爆发式飞跃”可能要等到2028年,甚至更久。 算力(或Token)成为新的货币 在硅谷,算力(或token)已经成为新的价值单位。它影响着: a. 工程师能完成什么b. 企业的成本和收入c. 商业模式 一些公司本质上是“伪装成工具的推理服务提供商”。Neocloud是最明显的例子,而像Cursor这样的产品也通过提供廉价算力来吸引用户。 甚至Allbirds(鞋企)都通过融资来建设GPU农场——它会成为AI界的MicroStrategy吗? 隐性裁员与发展中国家 目前很多所谓“因AI裁员”的案例,其实只是企业在疫情期间过度招聘后的回调。“我们用AI提高效率”听起来比“我们招人过多现在要缩减”更好听。 但AI确实正在影响一些领域,比如客服。企业通常先削减外包团队,而这些岗位主要集中在印度、菲律宾等国家。 这意味着一些发展中国家的经济升级路径可能被打断。如果外包服务岗位减少,这些国家需要寻找新的就业方向。这甚至可能影响全球人口迁移模式。 员工数量将趋于平稳甚至下降 许多后期公司CEO表示,他们不会大规模裁员,而是停止扩张。即使收入增长30%、50%甚至100%,员工人数也可能保持不变甚至略微下降。 现有员工会变得更高效,公司可能更倾向于用更少但更优秀的人才。这可能会推高顶尖人才的薪资。 招聘仍会发生在销售和部分工程岗位,但其他领域可能减少。 一些公司已经开始思考:token预算与薪资之间的最佳比例是什么? 初创公司仍然会像过去一样扩张,但每个人的效率更高。“扁平公司”更可能出现在成熟企业中。 “Slop时代”可能是AI与人类的黄金时代 我们可能正处在AI与人类的黄金时代。过去AI难以获取、能力有限,而未来AI可能在多数任务上超越人类。 现在的AI可以生成大量“有用的粗糙内容(slop)”,人类仍需进行整理和优化。这种协作带来了效率提升,也让工作变得有趣。 但如果AI最终接管更多工作,这种“黄金时代”可能会结束或改变。 AI将优先吞噬“闭环任务” AI首先会自动化那些可以形成闭环学习系统的工作。因此,编程和AI研究会先加速再被替代。 闭环越紧密,AI学习越快。可以用一个二维矩阵来分析:闭环程度 vs 经济价值。 编程的特殊性在于:需求远大于供给(10-100倍)。未来的AI工程师将更多管理多个智能体,而不是写代码。 手工艺工程师 vs 工具型工程师…
世界上实际上只有四种技能——设计、技术、管理和体能
认知状态:完全是某种“精神分裂式的宇宙级脑洞理论” Lightcone 采用一种“通才主义”的哲学。我们的大多数全职员工都被称为“通才”,而且在任何一年里,他们都会处理各种各样的任务——从在 LessWrong 代码库上进行软件开发,到修理 Lighthaven(我们一个3万平方英尺的园区)里溢出的马桶。 我们的一个核心规则是:如果你自己不会做某项任务,就不要把它委派给别人。这是一个非常严格的规则,也对我们的运作方式产生了大量影响,因此我花了很多时间观察人们如何学习那些他们之前不会做的事情。 我的总体观察(也是我们制定这条规则的原因)是:聪明人几乎可以学会任何东西。在广泛的任务范围内,大多数表现差异主要由一般智力(最重要)和尽责性(次重要)来解释,而不是专业经验。当然,如果你和一个在某项任务上做了几千次的人相比,你一开始肯定会落后——但人们达到平台期的速度其实出奇地快。在与多个行业的专家合作,并稍微涉猎技能迁移和训练相关文献之后,我发现:在控制智力和尽责性之后,一个从业4年的人和一个从业20年的人之间,其实差异并不大。 但有时,我团队中的某些人确实在某项任务上难以进步,即使他们很聪明。或者我会发现,如果让他们去做某件事,他们甚至连如何开始都不知道,除非花费至少几个月甚至几年时间去打基础。 于是问题就变成:是什么决定了一个人是否能够在相对短的时间内,在各种领域中获得专家级表现?这些领域包括准备法律辩护、制定建筑方案、翻新浴室、编写会议日程应用等。 我目前这个“宇宙级脑洞理论”的结论是:世界上正好只有四种技能。 设计技能:做出优秀的前端设计决策,良好表达和写作,设计空间,撰写法律辩护,构建复杂软件系统架构。技术技能:进行数学证明,编程,做费米估算,进行严谨分析,阅读并理解STEM论文,理解经济论证,制定商业计划,完成结构计算。管理技能:招聘人才,给予反馈,管理团队,应对复杂组织政治。体能技能:精通任何运动,具备独立翻新房间的身体灵巧性,掌握舞蹈等身体能力。 如果你在某一个类别中的任何任务上表现良好,那么你可以在六个月内,在同一类别的其他任务中达到专家水平。 为什么正好是这四种技能? 我也不完全确定,这只是与我观察到的数据大致吻合。但我大致是这样形成这个观点的: 首先,在所有任务中,表现与一般智力高度相关,这是最主导的因素。但显然,在控制智力之后仍然存在显著差异。 接着,有一个明显的划分:STEM 与人文学科。让法律、历史或非分析哲学背景的人学习编程,他们通常会卡住,或者预期需要多年训练。而让一个STEM背景的人学习编程,即使从未写过代码,也通常进展顺利。 类似地,当我和法律或人文学科背景的人讨论复杂的前端设计决策时,他们往往能给出出乎意料的好建议!他们很快就能理解用户模型,构建信息结构,并对呈现风格有直觉。 于是我一度以为:其实只有两种技能——技术技能和设计技能。 然后我尝试去管理人。这件事……完全不顺利。不仅如此,当我让团队成员去管理别人时,他们也表现得很糟糕。 于是我意识到:如果我要预测谁能成为好的管理者,我必须看他们是否有管理经验,并预期他们需要数月时间才能变得合格。也许这是一个全新的认知领域,也可能是反馈循环极慢、技能迁移困难的领域。但无论如何,在 Lightcone 预测表现时,管理技能必须单独建模。 然后我尝试翻修一家酒店。 虽然我的团队在很多与施工和施工管理相关的任务上表现得出乎意料地不错,但也很明显:他们无法完成承包商那样的体力劳动。在任何体育比赛中,他们也会被轻松击败。如果我要让团队成员参与日常施工工作,我必须预期他们需要几个月时间来锻炼身体并发展相应的体能技能。 于是,结论变成了四种技能。 那么,我是否确信世界上没有第五种技能类别? 其实,我有点确信。 过去两三年里,我一直观察身边人的职业路径,并没有发现明显的遗漏。我也刻意去思考:是否存在某些职业是这四种技能无法覆盖的?目前还没有找到。即便有,可能也是那些不太以职业为导向的领域。 比如: 需要有人写脚本自动填写商业表格?给一个经济学硕士三个月学编程,他可以做到。 需要有人推动营销?给一个室内设计师两个月,他也能搞定。 需要负责人法律部门、审核律师工作、准备高风险庭审辩护?给一个非常聪明的前端设计师三个月,他可以和律师抗衡。 但如果你想把一个从未管理过人的工程师升为管理者?那你要准备经历至少一年的痛苦过渡。 如果你想让一个不擅长写作、也不擅长设计的后端工程师接手前端?那他至少会挣扎一年。 如果你让一个量化金融背景的人写可维护代码?你得花几个月反复强调代码可读性的重要性。 如果你让一个从未做过体力劳动的哲学辍学生参与施工?他至少需要一年适应,甚至可能直接放弃。 你也可以自己试试看。 那么,这些观点有科学依据吗? 有的。虽然不是完全共识,但心理测量学中已经充分证明:任务表现高度“g负载”(即受一般智力影响)。聪明人确实可以学习各种技能。 在智力内部,“数学倾向”和“语言倾向”常被用来预测STEM或人文学科的成功。数学对应技术领域,语言对应设计领域。 “体能技能”也有支持:许多顶级运动员能在不同运动中达到世界级水平,说明技能迁移存在。此外,“一般运动能力”因素可以解释不同运动表现。 至于管理?作者表示不确定。情商研究存在,但在统计上并没有超越智力太多。可能是因为这个领域反馈极慢,每个人都必须经历失败才能成长。 总结就是:设计、技术、管理、体能。 很久以前,这四个“国家”和平共处。后来,一切都在“管理国家”进攻时改变了。只有掌握四种技能的真正通才,才能恢复平衡——但当世界最需要他的时候,他却消失了。
Max Hodak创立的Science Corp.正准备将其首个传感器植入人类大脑
由前Neuralink总裁兼联合创始人Max Hodak创立的初创公司Science Corporation,正在筹备其生物混合脑机接口的首次美国人体试验,并已邀请一位顶尖神经生物学家参与领导该项目。 耶鲁医学院神经外科主任Murat Günel博士在经过两年的讨论后,已同意担任科学顾问。他的目标是在患者大脑中外科植入首个传感器,这一装置将成为未来接口的一部分——该接口最终将把实验室培育的神经元与电子设备结合起来。 Science公司成立于2021年,上个月刚刚完成了一轮2.3亿美元的C轮融资,公司估值达到15亿美元。其目前最成熟的产品是PRIMA,这是一种用于恢复因黄斑变性等疾病导致失明患者视力的设备。公司于2024年收购了该技术,并已将其推进至临床试验阶段,计划在获得监管批准后,可能最早于今年在欧洲更广泛地推广使用。 不过,Hodak创立公司的初衷远不止于此。他的更宏大愿景是建立计算机与人类大脑之间可靠的通信连接——不仅用于治疗疾病,还为人类增强铺平道路,例如为人体增加全新的感官。他长期致力于这一方向,从大学时期设法进入神经科学实验室,到创立首家生物计算初创公司,再到与Elon Musk共同创建Neuralink。 Neuralink以及其他组织已经成功利用电子传感器检测患有肌萎缩侧索硬化症(ALS)、脊髓损伤等疾病患者的大脑活动。这些患者由于大脑与身体之间的通信被切断,通过植入设备,可以仅通过思考来控制计算机或在屏幕上生成文字。然而,这类设备真正形成市场的路径仍然不明朗,原因在于监管挑战以及适用患者数量相对有限。 Hodak本人认为,传统使用金属探针或电极通过电信号影响大脑的方式并不是未来的最佳路径。尽管这种技术已经取得显著成果,但Günel指出,这些探针会对大脑造成损伤,长期来看可能会削弱设备性能。正是这种局限性促使Science的创始团队转向一种更“有机”的方法。 Günel对TechCrunch表示:“利用神经元的自然连接,在电子设备与人脑之间建立一种生物界面,这一想法非常天才。” 公司联合创始人兼首席科学官Alan Mardinly带领一支由30名研究人员组成的团队,开发了这种生物混合传感器。最终设备将嵌入实验室培育的神经元。这些神经元可以通过光脉冲进行刺激,并被设计为能够自然地与患者大脑中的神经元融合,从而在生物与电子之间建立桥梁。2024年,公司发布了一篇研究论文,表明该设备可以安全植入小鼠体内,并用于刺激大脑活动。 目前,公司内部的重点是开发设备原型,并研究如何培养适用于不同治疗场景且符合医疗标准的神经元细胞。 Günel将为团队提供指导,同时公司也正在与负责监督人体实验的医学伦理委员会进行沟通。第一步将是在人体大脑中测试该公司的先进传感器,但暂时不包含嵌入的神经元。 与Neuralink直接将设备植入大脑组织不同,Science的传感器将被植入颅骨内部,但位于大脑表面之上。也正因为这一差异,公司表示不计划为这些试验申请美国食品药品监督管理局(FDA)的批准,认为该微型设备(在豌豆大小的区域内包含520个记录电极)不会对患者构成重大风险。 团队计划选择那些已经需要接受重大脑部手术的患者,例如中风患者(他们可能需要移除部分颅骨以缓解脑部肿胀)。在这种情况下,Günel预计可以将传感器放置在大脑皮层表面,并评估其在测量脑活动方面的安全性和有效性。 Günel认为,如果该设备取得成功,它可能有助于治疗多种神经系统疾病。其中一个早期应用可能是通过温和的电刺激促进受损的大脑或脊髓细胞恢复。更复杂的应用则可能包括监测脑肿瘤患者的神经活动,并在癫痫发作前向护理人员发出预警。 如果这些设备的潜力完全实现,Günel甚至设想它们可能为帕金森病等疾病提供更有效的治疗方案。帕金森病是一种逐渐剥夺患者身体控制能力的进行性疾病。目前的治疗方法包括实验性的脑细胞移植以及利用电刺激进行深部脑刺激,但都尚未被证明能够可靠地阻止疾病进展。 他表示:“我将这种生物混合系统视为两者的结合——既有电子设备,也有生物系统。以帕金森病为例,我们目前无法阻止疾病的进展;神经外科所做的只是通过电极来抑制震颤。但如果你能够真正将这些(移植的)细胞放回大脑并保护这些神经回路,就有可能——而且我认为这种可能性很大——阻止疾病继续发展。” 不过,在实现这一目标之前仍有大量工作要完成。Günel表示,如果期望试验在2027年开始,那将是“比较乐观”的预期。
GPU计算的起源
政府资助的学术研究在并行计算、流处理、实时着色语言以及可编程图形处理单元(GPU)等领域的探索,直接促成了GPU计算的发展。 政府资助的学术研究在并行计算、流处理、实时着色语言以及可编程图形处理单元(GPU)方面的工作,直接推动了GPU计算的诞生。如今,GPU被广泛应用于现代数据中心,并促成了当前人工智能(AI)的革命。生产GPU的公司Nvidia已经成为全球市值最高的公司。这一计算方式的转变以及由此带来的巨大经济价值,是超过30年政府资助研究的成果。政府资金不仅推动了许多关键技术创新的发展,还培养了大量学生,这些人才将相关技术带入工业界。 本文追溯了GPU计算的起源。我们首先介绍构成GPU计算基础的技术(并行计算、并行图形系统、可编程着色器以及流处理),随后详细说明这些技术如何被转移到Nvidia及其他公司,并最终应用于现代机器学习领域。 支撑技术 GPU计算建立在并行计算、并行图形系统以及流处理等早期研究成果之上。这些技术是在超过30年的政府资助学术研究中逐步发展起来的。 并行计算在学习计算机时,人们通常会了解中央处理器(CPU)按顺序执行指令的模型。然而在现实中,芯片内部包含数十亿个晶体管,这些晶体管是并行切换的,并通过导线连接在一起。开关和导线是物理计算机的基本构件,它们是同时运作的。此外,晶体管的切换消耗的能量非常少,而通过导线进行通信则消耗更多能量。信号从一个位置传输到另一个位置需要能量,这种消耗随着距离增加而增大,在芯片之间通信时尤其显著。 虽然顺序计算机更容易理解,但实际上它仍然依赖大量并行工作的晶体管,并通过复杂的方式将结果组合成看似顺序执行的过程。这种“制造顺序假象”的方式在功耗和性能上都效率较低。随着晶体管数量的增加,这种低效问题会更加明显。因此,在现代半导体技术中,更自然的计算方式是设计并行计算机。GPU之所以比CPU更高效,是因为它本质上是大规模并行计算机。 GPU计算继承了早期并行计算的成果。与所有并行系统一样,GPU上的线程必须进行同步和通信。通信用于让一个线程使用另一个线程产生的数据,而同步则用于确保数据在被使用时已经准备就绪。许多关于并行计算、同步和通信的基础理论都来自政府资助的研究。例如DARPA资助的Cosmic Cube项目在并行计算方面奠定了重要基础,其思想后来被应用于多种并行计算机系统中。此外,J-Machine和M-Machine项目开发了低开销通信与同步机制,使得细粒度并行成为可能。 并行图形系统与传统并行计算相比,并行图形与图像计算的历史较少被关注,但同样重要。图像处理需要极高的计算量。例如,如果一台每秒执行一百万条指令的计算机对一张百万像素图像的每个像素执行一次运算,就需要整整一秒时间。而现代电影中的图像生成,每个像素需要大约十亿次浮点运算。因此,图形与图像处理必须依赖高性能并行计算系统。 早期的重要研究包括斯坦福的Geometry Engine项目,该项目促成了Silicon Graphics公司的成立,并定义了现代GPU架构的雏形。此外,还有Pixel Planes系统、NASA的大规模并行处理器以及Pixar图像计算机等。 最早的GPU实现的是固定功能的图形流水线,类似早期的SGI工作站。1999年发布的Nvidia GeForce 256被认为是第一款商业GPU。 后来,RenderMan系统引入了着色语言,使用户能够自定义复杂的材质与光照效果。随着实时着色语言的发展,着色器(shader)成为GPU编程的重要组成部分,并最终推动了通用GPU计算(GPGPU)的兴起。 流处理流处理是一种特殊形式的并行计算,其目标是提高计算密度(计算与内存带宽的比值)。由于数据通信消耗大量能量,流处理通过减少内存访问来提升效率。 流处理的两个核心思想是:第一,利用生产者-消费者局部性,让数据在计算阶段之间直接传递,而无需写入内存;第二,将计算组织为“核函数”(kernel),每个核函数处理一批数据并输出结果。这种方式显著减少了内存访问次数,提高了整体效率。 Imagine流处理器和Merrimac项目进一步发展了这一思想,并提出了适用于科学计算的架构。Stream-C和Brook等编程语言也相继出现,使得流处理模型可以应用于GPU。 例如,矩阵乘法是典型的高计算密度任务,也是现代神经网络的核心计算之一。GPU在执行这类任务时表现出极高效率。此外,分子动力学模拟等科学计算也成为GPU的重要应用领域。 GPU的一个关键特性是多层次并行性:每个GPU包含多个核心,每个核心又包含SIMD单元,并支持多线程执行。例如某些GPU可以同时执行数十万个任务,从而实现极高吞吐量。 技术转移GPU计算的发展不仅依赖技术,还依赖人才流动。斯坦福的流处理研究成果通过人员流动被带入Nvidia。Brook语言最终演化为CUDA,使GPU编程变得更加易用。 随着CUDA的推广,大量学生和工程师开始学习并行编程,从而推动GPU计算的普及。 推动人工智能现代机器学习依赖三个关键要素:海量数据、大规模模型以及强大的计算能力。虽然核心算法早已存在,但GPU提供了训练这些模型所需的计算能力。 随着AlexNet和GPT等成果的出现,AI能力迅速提升。GPU计算成为这一进步的关键推动力。此外,学术界与工业界的合作(如Nvidia与斯坦福的合作)也加速了深度学习的发展。 结论GPU计算背后的核心技术主要来源于长达30年的政府资助学术研究。并行计算、并行图形系统以及流处理为GPU奠定了基础。通过人才流动,这些技术被转移到工业界,并最终形成了现代GPU计算平台。GPU提供的高效、易编程以及高性能计算能力,使得机器学习得以快速发展,成为当今人工智能革命的关键支柱。
Hyperliquid 的故事
在很多创业故事中,成功往往伴随着融资、扩张和曝光,但 Hyperliquid 的故事却几乎反其道而行:拒绝投资、匿名运作、极度克制,同时却创造了惊人的效率与利润。这不仅是一个关于个人的故事,更像是一种对“公司应该如何运作”的重新定义。 故事的主角 Jeffrey Yan,并不是典型意义上的创业者。他曾经拒绝了一笔接近 1 亿美元的融资,却选择用自己的钱继续推进项目;他建立了一家年利润超过 9 亿美元、但只有 11 名员工的公司;他把数十亿美元的代币空投给用户,而不是投资人;与此同时,他却不得不配备保镖,甚至在日常生活中保持高度隐匿。这种极端反差,使得 Hyperliquid 看起来更像是一种实验,而不是一家传统意义上的公司。 如果从结果倒推原因,很容易误以为这是一种刻意设计的“反主流策略”。但事实上,这种路径更多来自 Yan 对问题本质的执着。他并不认为自己在做一个“加密公司”,而是试图重新构建金融系统本身。在他的理解中,加密技术只是工具,而不是目的。正因为如此,他对行业中大量围绕投机、套利和短期收益的行为保持距离,甚至在采访中坦言,这个行业存在大量“并不健康”的现象。 Hyperliquid 的核心,是一个建立在区块链上的交易系统,但它并不满足于成为另一个交易所。传统交易所的本质,是中心化机构托管用户资产并撮合交易,而 Hyperliquid 的设计则试图消除这一中介,让用户始终掌握自己的资金,同时通过公开的链上机制完成交易。这种结构的意义,不仅在于技术创新,更在于信任机制的重构。 这种理念,在行业危机中显得尤为重要。FTX 的崩溃,本质上就是用户资产被挪用而不透明所导致的信任破裂,而 Hyperliquid 从一开始就试图避免这一点。其核心流动性池 HLP(Hyperliquidity Provider)将所有资金与收益完全公开在链上,任何人都可以实时查看。这种透明性,使得系统本身成为一种“自我约束”,而不再依赖公司或个人的道德。 但理想并不意味着路径简单。Hyperliquid 在早期面临的最大问题,并不是技术,而是“没有人用”。交易所的本质是网络效应,没有流动性就没有用户,没有用户就没有流动性。行业的常规做法是支付做市商来提供流动性,但 Yan 拒绝这样做。他认为,这会从根本上改变系统的激励结构,使其再次依赖中心化力量。 为了打破这个循环,他采取了一种非常规策略:将自己在交易中积累的高频策略开放给用户,让任何人都可以参与并分享收益。这种方式不仅提供了初始流动性,也让普通用户第一次有机会接触到原本只属于顶级机构的交易能力。虽然在市场上涨阶段,这种策略曾一度引发用户不满,但从长期来看,它成功吸引了真正的参与者,而不是短期套利者。 与此同时,Hyperliquid 在产品设计上也不断突破传统边界。例如,它允许第三方在平台上创建新的交易市场,甚至是原本只存在于传统金融体系中的资产,如石油、黄金或股票指数。这种开放性,使得平台逐渐从一个交易工具,演变为一个可以承载多种金融活动的基础设施。 更重要的是,这些扩展并不是由团队本身完成的,而是由外部开发者推动。随着 Builder Codes 和 HIP-3 等机制的推出,越来越多的第三方开始在 Hyperliquid 上构建自己的产品,并直接分享收益。这意味着,Hyperliquid 不再只是一个“产品”,而是一个“平台”,甚至更接近一个“系统”。 这种转变,也解释了 Yan 为什么会拒绝风险投资。在他的设想中,Hyperliquid 更像是一种公共基础设施,而不是一家传统公司。如果引入投资人,就意味着需要分配股权、承担回报压力,并在一定程度上改变系统的中立性。对他来说,这种代价远高于资金本身的价值。 当然,这种选择并非没有风险。随着平台规模扩大,它开始直接面对行业巨头的竞争,包括 Binance、Coinbase 等。同时,由于其公开透明的特性,一些攻击和漏洞也更容易被利用。例如 Jelly Jelly 事件中,攻击者利用低流动性市场进行操纵,导致系统短时间内出现巨大损失。这些问题迫使团队不断在“去中心化”与“安全性”之间寻找平衡。 更现实的风险则来自线下世界。随着财富的累积和影响力的扩大,Yan 成为潜在的攻击目标。在过去一年中,针对加密行业从业者的暴力事件明显增加,从绑架到勒索层出不穷。这也是为什么…
大多数软件团队,其实并不知道自己在“花多少钱”,也不知道这些钱是否真的在创造价值
在现代企业中,软件开发往往是最昂贵的投入之一,但同时也是最缺乏财务透明度的领域。每天做决策的工程师和产品经理,会决定开发什么、延后什么、甚至放弃什么,但这些决策背后的“成本”却几乎从未被明确计算。这并不是偶然,而是一种持续了二十多年的结构性现象:组织刻意或无意地将“财务视角”排除在日常决策之外。 如果我们把问题拆开来看,事情其实并不复杂。一个普通的软件工程师,在西欧的综合成本大约在每年 12 万到 15 万欧元之间,取中间值约为 13 万欧元。这已经不仅仅是工资,还包括社保、设备、管理成本以及办公空间等。换句话说,一个由 8 名工程师组成的团队,每年的成本大约是 104 万欧元,每个月约 8.7 万欧元,每个工作日约 4000 欧元。 这个数字本身并不难算,但问题在于,大多数工程师并不知道它,甚至不少管理者也不清楚。更关键的是,即便有人知道,这些信息也很少进入实际的优先级讨论中。这就导致一个很现实的问题:团队每天都在做“投资决策”,却不知道自己在花多少钱。 一旦把这个数字带入具体场景,很多看似合理的决策就会显得完全不同。比如,一个团队花三周时间做一个只服务 2% 用户的功能,本质上是一个大约 6 万欧元的决策。再比如,为了“感觉更好”而重构系统,而不是因为用户流失,这其实是一种资本配置行为,只不过没有被当作资本配置来看待。 这种缺乏财务视角的问题,在内部平台团队中尤为明显。设想一个常见的结构:8 名工程师维护一个平台,为 100 名其他工程师服务。这个团队每个月成本约 8.7 万欧元,那么要“回本”,它至少需要为这 100 名工程师创造同等价值。最直接的衡量方式是节省时间。 如果一个工程师每月成本约 1.08 万欧元,相当于每小时约 65 欧元,那么平台需要每月节省总计约 1340 小时,也就是每人每周节省约 3 小时。这听起来并不夸张,一个优秀的平台完全可以通过自动化部署、减少重复配置等方式达到这个水平。 但问题在于,大多数团队并不会计算这个数字,更不会持续跟踪它。他们的工作路线图往往由技术兴趣、业务方需求以及季度规划驱动,而不是由“这个功能能否产生足够价值”来决定。 更重要的是,“回本”本身并不是一个合理的目标。现实世界中的投资,需要覆盖失败的成本,也需要考虑长期维护的开销。一个团队的工作不只是当前的产出,还包括未来持续的维护、复杂度的增加以及系统替换的成本。因此,一个更合理的标准是至少创造 3 到 5 倍于成本的价值。 这意味着,一个每月成本 8.7 万欧元的团队,实际上需要创造 26 万到 43 万欧元的月度价值,才能被视为真正“健康”。这个门槛远高于大多数团队的直觉,也解释了为什么很多项目从财务角度来看其实并不成立。 对于面向用户的产品团队来说,逻辑完全相同,只是变量不同。如果一个产品的每用户月收入是 50 欧元,那么团队需要每月新增或保住约…
OpenAI 与云巨头之间的关系,正在进入一个更加微妙且关键的阶段
在过去几年中,OpenAI 与 Microsoft 的合作一直被视为生成式人工智能浪潮中的标志性联盟。从早期的大规模投资,到 Azure 成为其主要基础设施支撑,这段关系无疑为 OpenAI 的快速崛起奠定了基础。然而,随着 AI 市场竞争的不断加剧,以及企业级客户需求的多样化,这种高度绑定的合作模式,也逐渐显现出其局限性。 近期,一份由 OpenAI 新任首席营收官 Denise Dresser 发给员工的内部备忘录,将这种变化更加清晰地呈现在外界面前。在这份备忘录中,她一方面肯定了 Microsoft 在公司发展中的重要作用,称其为“基础性的合作伙伴”,另一方面也坦言,这种合作在一定程度上“限制了 OpenAI 触达客户的能力”。 这种说法并非空穴来风。在企业级市场中,客户往往已经深度绑定某一云平台,而不是愿意为某个模型单独迁移基础设施。对于许多公司来说,Amazon Web Services(AWS)依然是首选,而 AWS 提供的 Bedrock 平台又聚合了多家主流 AI 模型服务。在这样的背景下,如果 OpenAI 仅依赖 Microsoft 的生态,就意味着天然失去了一部分潜在客户。 正是在这种现实压力下,OpenAI 开始主动调整策略,与 Amazon 展开更深层次的合作。就在不久前,Amazon 宣布计划向 OpenAI 投资最高 500 亿美元,这不仅是一次资本层面的加码,更代表着双方在云基础设施与企业市场上的深度绑定。Dresser 在备忘录中提到,自从合作公布以来,来自客户的需求“激增”,这一点也从侧面反映出市场对于多云支持的强烈期待。 从更宏观的角度来看,这种转变其实反映了 AI 行业竞争格局的变化。当前的企业级 AI 市场,并不只是模型能力的比拼,更是生态系统与分发渠道的竞争。谁能够更灵活地嵌入客户现有的技术栈,谁就更有可能赢得市场。 与此同时,OpenAI 还面临来自竞争对手的强大压力。Anthropic 的 Claude 模型正在企业市场迅速崛起,甚至在行业会议中被形容为一种“现象级热潮”;而 Google 的…
Terafab, Muse Spark 轨道AI、闭源模型与千亿估值:三大科技风向标
1)Terafab:英特尔加入马斯克的250亿美元轨道AI赌注 埃隆·马斯克于3月21日宣布成立Terafab,这是一个由特斯拉、SpaceX和xAI在奥斯汀共同组建的芯片制造合资企业,总投资达250亿美元。4月7日,英特尔作为合作伙伴加入,贡献了其18A工艺节点——一种1.8纳米级技术,也是目前美国境内最先进的半导体制造工艺。 Terafab预计80%的计算产出将用于一款名为D3的单一芯片,这是一种具备抗辐射能力的处理器,专为轨道AI数据中心打造。SpaceX已经向美国联邦通信委员会(FCC)提交申请,计划在近地轨道发射100万颗数据中心卫星。 马斯克认为,在三年内,在轨道上运行AI工作负载的成本将低于地面。Terafab的结构也体现了这种分工:一个工厂专注于为特斯拉Robotaxi和Optimus机器人生产边缘AI芯片;另一个工厂则完全专注于为轨道部署生产D3芯片。 2)Muse Spark:Meta缩小差距并转向专有模式 4月8日,Meta发布了Muse Spark,这是其超级智能实验室推出的首个模型。该模型由Meta首席AI官Alexandr Wang领导的团队在九个月内开发完成。该模型为闭源模型,标志着Meta在前沿AI战略上的转变。这与此前的Llama策略形成了明显对比——Llama曾帮助Meta成为开源权重AI领域的标杆。 Muse Spark在多模态感知、推理、医疗和智能体任务方面表现出竞争力。在医疗领域,Meta与1000名医生合作,构建了Muse Spark的临床能力。 Meta表示,该模型以10倍更低的计算成本达到了与Llama 4 Maverick相当的能力。目前该模型已在Meta AI应用和网站中运行,并计划在未来几周内推广至WhatsApp、Instagram、Facebook、Messenger以及Meta的AI眼镜。Meta声称其模型扩展具有可预测性,而Muse Spark只是这一发展轨迹中的早期数据点,更大规模的模型正在开发中。 3)OpenAI估值达8520亿美元:测试新的IPO路径 3月31日,OpenAI完成了一轮1220亿美元融资,投后估值达到8520亿美元,成为历史上规模最大的私募融资事件。OpenAI是最快达到1亿用户的科技平台,同时也有望成为最快达到每周10亿活跃用户的平台(目前约为9亿)。 首席财务官Sarah Friar在4月8日确认,OpenAI将在IPO中为散户投资者保留一部分股份。 “必须让每个人都能参与,而不是只有极少数人受益,其他人被排除在外。”——OpenAI首席财务官Sarah Friar 在通过摩根大通、摩根士丹利和高盛进行的IPO前私募配售中,OpenAI原计划从个人投资者那里筹集10亿美元,最终获得了30亿美元。这被这些银行称为他们执行过的最大规模私人散户配售。 OpenAI正朝着可能在2026年下半年提交上市申请的方向迈进,估值接近1万亿美元。他们预计到2030年收入将达到2800亿美元,而目前年化收入已超过200亿美元。