在通往“超级智能”的征途中,OpenAI迎来了新的资本金主——软银。虽然说微软“外包”了OpenAI的雄心壮志可能有些夸张,但整体方向上似乎没错,至少在算力供应方面,微软正在逐步抽身,而软银正在接管。 “星门计划”(The Stargate Project)的宣布已经为这一趋势埋下伏笔。当时,孙正义(Masa Son)和拉里·埃里森(Larry Ellison)站在白宫,与山姆·奥特曼(Sam Altman)一起发布该计划,而微软只是以“技术合作伙伴”的身份参与,而非资本提供方。微软甚至专门发布了一份公告,强调其与OpenAI的合作关系正在“演变”,允许OpenAI寻找其他云服务商,特别是正在建设第一座“星门”数据中心的甲骨文(Oracle)。 微软的态度很明显:他们并没有和OpenAI彻底分手,而是转向“开放关系”。但潜台词也很清楚:微软不想继续承担OpenAI的全部算力需求,甚至连主要算力提供方的位置都不想坐了。 这在OpenAI的内部财务预测中也有所体现。据《The Information》的Cory Weinberg、Jon Victor和Anissa Gardizy披露,OpenAI预计到2030年,软银将提供其75%的计算能力,而目前微软几乎是唯一的算力供应商。换句话说,微软正在逐步放手,而软银正在全面接管。 当然,情况比这更复杂。微软仍然是OpenAI的重要合作伙伴,尤其是在早期投资方面。未来,如果OpenAI成功转型为盈利公司,微软很可能成为其最大股东之一。但不管怎么说,微软现在的态度已经很明显:是时候让OpenAI自己飞了。 从商业角度来看,这也完全可以理解。微软CEO萨提亚·纳德拉(Satya Nadella)要对股东负责。虽然与OpenAI的合作让微软股价一路高歌,但这不可能无限期持续下去。华尔街迟早会对科技巨头的AI投入开始“秋后算账”,正如之前DeepSeek事件所透露的那样。这也是为什么所有科技巨头的资本支出(CapEx)都在趋同,除了苹果——但那又是另一个故事了。 微软的策略很明确:保持年度资本支出在800亿美元,而不是为了“星门”计划直接飙升到1800亿美元。毕竟,这个项目的预算高达5000亿美元,虽然这个数字可能只是为了讨某位喜欢“大数字”的总统欢心,但即便按最保守估算,也是一笔天文数字。而OpenAI似乎真的有办法搞到这笔钱——主要靠软银。 纳德拉在接受CNBC采访时笑称自己“今年就出80B”(80亿美元),这句话一度被解读为对OpenAI“星门”计划烧钱模式的调侃。但更深层次的含义是向华尔街传递信号:微软不会再无止境地给OpenAI输血,他们已经找到方法将额外的AI支出转嫁出去。 根据《The Information》的报道,OpenAI目前正在进行400亿美元的新一轮融资,而软银预计会提供其中的75%。其中近一半的资金将用于“星门”数据中心建设。此外,OpenAI预计今年三分之一的收入将直接来自软银——投资、购买、再投资,形成一个自给自足的闭环。这种模式是否涉及财务灰色地带?暂且不论,但显然软银正在成为OpenAI的绝对核心金主。 得益于软银的资金支持,OpenAI的营收预测也得到了大幅上调。今年的收入预计将从37亿美元暴涨至125亿美元,到2026年达到280亿美元。而且,大部分收入仍然来自ChatGPT,而不是API或其他B2B业务,这表明OpenAI的核心业务模式可能比想象中更稳固。不过,代价同样不小——今年的现金消耗预计将从去年的20亿美元激增到70亿美元,并在2027年达到峰值——200亿美元。公司预计要到本世纪末才能实现盈利。 这样的烧钱速度,恐怕只有孙正义才能接受。但与过去的失败投资(比如WeWork)不同,如果OpenAI真的能兑现其承诺,打造一个“超级智能”时代,回报可能会比当年的阿里巴巴投资更加惊人。当然,前路依然漫长,且资金需求巨大。 OpenAI预测,到2030年,其运营成本将达到3200亿美元,其中超过一半用于训练AI模型。这一点或许正是微软最不愿意继续投入的部分。因此,他们选择了退出,让软银接手。这也意味着,OpenAI和软银的合作目标已经锁定——全速冲向AGI(通用人工智能),再冲向“超级智能”。 然而,这一切的前提是,他们真的能建成“星门”数据中心。毕竟,这个计划不仅需要天量资金,还需要至少8吉瓦的电力——这无疑将是未来科技界最值得关注的超级工程。而微软,则似乎已经乐于退居二线,静观其变。
谷歌最新AI视频模型Veo 2定价曝光,每秒50美分
谷歌悄悄公布了其AI视频生成模型Veo 2的收费标准,而这个价格可能让不少人倒吸一口凉气。 根据谷歌官方定价页面的显示,使用Veo 2的成本为每秒50美分,换算下来就是每分钟30美元,每小时高达1800美元。对此,谷歌DeepMind研究员Jon Barron还特意拿《复仇者联盟4:终局之战》做了个对比——这部漫威大片的制作预算高达3.56亿美元,相当于每秒烧掉3.2万美元。 不过,用户花钱生成的视频未必每一秒都能用上,而且Veo 2目前也还达不到“漫威大片流水线”的水准。谷歌在发布公告时提到,Veo 2擅长生成时长两分钟或以上的视频,但想指望它产出三个小时的史诗级大片,可能还为时尚早。 另外,OpenAI最近也推出了Sora视频生成模型,定价方式则是捆绑到ChatGPT Pro订阅中,每月收费200美元。这两家AI巨头的较量,看来在视频生成领域也已经打响了。
Gemini 2.0助力科学突破,AI联合科学家系统登场
AI 在科研领域的影响力再度升级!基于 Gemini 2.0,一款名为 AI 联合科学家(AI co-scientist) 的多智能体系统正式亮相,旨在为科学家提供更智能、更高效的研究协作工具。从生成全新的研究假设到制定详细的实验方案,这款 AI 彻底改变了科学发现的节奏。 科学研究的终极助手:AI 联合科学家 在现代科研领域,研究者不仅要具备创造力和专业知识,还需要应对海量文献的挑战,同时结合跨学科的视角推动突破。然而,面对指数级增长的科研论文,要从中提炼出真正创新的研究方向,难度不容小觑。 AI 联合科学家的诞生正是为了填补这一空白。它不同于普通的文献综述工具,不只是简单地总结信息,而是能够在已有研究的基础上,提出真正新颖、可验证的研究假设和实验方案。 该系统借助多个专门设计的 AI 代理,包括 假设生成(Generation)、反思(Reflection)、排序(Ranking)、进化(Evolution)、相似性分析(Proximity)和元审查(Meta-review),让 AI 具备类似科学家的思维方式,能够不断自我优化,提高假设的质量和创新性。 如何运作?AI 研究员的“思维链” 实验验证:AI 真的能推动科学突破? 为了测试 AI 联合科学家的实际能力,研究团队在多个生物医学领域进行了实验验证: 1. 急性髓系白血病(AML)药物再利用 2. 肝纤维化治疗靶点发现 3. 抗生素耐药性(AMR)机制解析 未来展望:AI 科学家能走多远? 尽管 AI 联合科学家展现出了惊人的科研潜力,但仍有提升空间,例如: 这项技术的核心价值不仅在于加速科研发现,更在于提供了一种人机协同的全新研究模式。AI 作为科学助手,能帮助研究者探索未知领域,提出人类科学家可能忽略的假设,从而推动更具突破性的发现。 在 AI 赋能科学研究的新时代,AI 联合科学家 可能成为下一场科研革命的催化剂,让未来的诺贝尔奖级别发现,更快、更高效地浮出水面!
GPT-4.5和GPT-5即将上线,ChatGPT用户突破4亿
OpenAI 正在加快步伐,准备推出 GPT-4.5 和 GPT-5,全面提升 AI 在对话和 API 端的推理和推断能力。据 COO Brad Lightcap 透露,GPT-5 将融合 OpenAI 的 GPT 和 o-series(O系)模型,打造更高效、更精简的 AI 框架。 这次升级的重点之一是免费用户也将享受完整访问权限,不再受到严格限制,而 Plus 和 Pro 订阅用户则可以获得额外的推理时间,满足更大规模的计算需求。 ChatGPT 用户激增,API 需求暴涨 根据 Lightcap 在社交平台上的透露,ChatGPT 每周活跃用户(WAU)已突破 4 亿,在短短不到三个月的时间里增长了 33%。目前已有 超过 200 万家企业 在工作中使用 ChatGPT,而自 o3-mini 版本推出以来,API 的推理调用量更是增长了 5 倍。 这一增长凸显了市场对高级 AI 推理模型的巨大需求。而 OpenAI CEO Sam Altman 也暗示,除了 GPT-4.5…
Nvidia CEO黄仁勋回应DeepSeek R1影响:市场误判,AI计算需求仍将增长
Nvidia创始人兼CEO黄仁勋(Jensen Huang)近日在一场采访中表示,市场错误解读了DeepSeek的技术突破,误认为其开源推理模型R1会削弱对计算资源的需求,进而影响Nvidia的业务。 “市场的反应就像是,‘天呐,AI完了,计算不再需要了’。”黄仁勋说道,“事实完全相反,AI市场正在扩大,采用速度正在加快。” 🔹 R1的影响:不是威胁,而是机会 💡 AI计算需求依然强劲DeepSeek R1的发布让市场震惊,一些投资者担忧,AI推理模型的高效性可能削弱对高性能计算芯片的需求。然而,黄仁勋指出,尽管DeepSeek在预训练方面取得突破,后续的推理计算依然需要大量算力支持。 💬 **“推理仍然是一个计算密集型任务。”**黄仁勋强调,AI的进步不会减少计算需求,反而会让整个行业更快发展。 🔹 Nvidia股价波动:大跌16.9%后基本恢复 📉 股价大跌 📈 基本回升 🔹 DeepSeek计划进一步开源 与此同时,DeepSeek宣布将在下周举办“开源周”活动,届时将开放五个代码库,进一步推动AI开源生态的发展。 尽管DeepSeek的技术创新引发短期市场震荡,但黄仁勋的观点很明确:AI行业仍在扩展,计算需求不会消失,反而会持续增长。
微软发布Majorana 1芯片,开启量子计算新路径
微软今日推出Majorana 1,这是一款基于拓扑核心(Topological Core)架构的全新量子芯片,旨在加速量子计算的发展,使其在数年内而非数十年内实现工业级应用。 🔹突破性的拓扑超导材料 Majorana 1的核心技术在于全球首个拓扑超导体(topoconductor),这是一种全新物质形态,不同于固体、液体或气体。该材料能够观察和控制Majorana粒子,从而创建更稳定、可扩展的量子比特(qubit),这也是量子计算的基本单元。 微软技术专家Chetan Nayak表示:“我们退后一步思考,‘让量子计算进入晶体管时代需要什么?’ 于是我们发明了拓扑量子比特,并由此构建了全新的计算架构。” 🔹可扩展至百万量子比特,解决现实问题 目前全球所有传统计算机的计算能力加总,仍无法与一台百万量子比特的计算机相比。微软表示,Majorana 1的架构可以在一颗手掌大小的芯片上集成百万级量子比特,突破传统量子计算的瓶颈,使其能够解决工业和社会领域的复杂问题,例如: ✅ 分解微塑料,将其降解为无害副产物✅ 开发自修复材料,应用于建筑、制造业和医疗领域✅ 优化催化剂,用于碳捕获或污染物降解✅ 精准模拟酶反应,提升农业和医疗科技 Nayak表示:“如果你的量子计算路线不能走向百万量子比特,你迟早会遇到瓶颈,无法解决真正重要的问题。而我们已经规划好了这条路径。” 🔹拓扑量子比特的优势:更稳定、更高效 拓扑超导体能够创造独特的量子态,使量子比特更加稳定,并减少环境干扰带来的计算误差。微软研究团队在最新发表的《Nature》论文中,展示了如何成功创建并测量这些量子特性,这是量子计算走向实用化的关键一步。 此外,传统量子计算需要对每个量子比特进行精确的模拟控制,这对大规模扩展极具挑战。而微软的设计支持数字化控制,可以像开关一样启用或禁用量子比特,极大简化了计算架构。 🔹DARPA与微软合作,推动商业化应用 微软已进入DARPA(美国国防高级研究计划局)US2QC计划的最终阶段,该计划旨在打造全球首个实用级、容错量子计算机,即计算能力真正超越成本的量子系统。 微软还与Quantinuum和Atom Computing合作,推动当前量子计算机的工程突破,并通过Azure Quantum提供AI与量子计算结合的解决方案,让用户能在Azure平台上探索量子技术的潜力。 🔹重新定义量子计算规模化 微软量子团队成员Matthias Troyer表示,当前量子计算的最大挑战是扩展,而Majorana 1的设计让百万量子比特计算机变得现实可行。 “未来,企业只需要描述想要制造的材料或分子,量子计算机就能直接提供‘配方’——无需漫长的试验与误差修正。” 这种能力将对医疗、材料科学、化学、工程等行业产生深远影响,使产品从设计到生产的效率大幅提升。 🔹量子计算的未来:原子级材料设计 微软的拓扑量子比特架构依赖于铟砷(indium arsenide)和铝(aluminum)组成的纳米级材料堆栈。该材料必须原子级精准排列,否则会导致量子比特失效。 Krysta Svore表示:“我们必须逐个原子喷涂,材料中任何微小的缺陷都可能破坏整个量子比特。” 未来,量子计算本身也将用于优化量子材料,加速下一代计算机的发展,使整个行业进入自我优化的阶段。 🔹迈向实用级量子计算的关键一步 微软的Majorana 1不仅是一次材料科学的突破,更是量子计算向商业化迈进的关键里程碑。随着百万量子比特计算机的实现,未来在科学研究、工程制造、环境保护、医疗创新等领域,量子计算或将带来变革性的影响。
AI设计新型酶,可分解部分塑料
科学家利用人工智能成功设计出一款可分解塑料的多步酶,为塑料降解问题提供了新的解决方案。这项研究展示了AI在蛋白质设计领域的潜力,同时也暴露了酶反应机制的复杂性,即使有最先进的AI工具,想要让酶真正发挥催化作用仍然是一个巨大挑战。 酶与酯键:破解塑料结构的关键 酶是极其高效的催化剂,能够促进各种复杂的化学反应。然而,自然界并没有专门用于降解塑料的酶,这成为塑料污染治理的一大难题。塑料中的**酯键(ester bond)**是由碳-氧-碳的结构组成,能够通过水解反应断裂,生成带有羟基(COH)和羧基(COOH)的产物。 许多天然酶可以处理生物体系中的酯键,但塑料中的酯键更稳定,因此需要更强大的酶来分解它们。研究团队的目标是利用AI设计一种能有效分解塑料中酯键的酶,特别是聚酯(polyester)类塑料,比如PET(聚对苯二甲酸乙二醇酯)。 AI如何设计新型酶? 研究人员使用了两种AI工具: 1️⃣ RFDiffusion:基于现有的酯键水解酶,生成具有类似活性位点的全新蛋白质。RFDiffusion通过随机种子生成多种不同的蛋白结构,并筛选出可能有效的设计。 2️⃣ PLACER:专注于蛋白质-小分子结合的生成式AI,可以优化蛋白质结构,使其更符合催化需求。PLACER的训练数据来自已知的蛋白-小分子相互作用结构,通过调整随机化结构来学习如何恢复酶的功能性。 实验过程与挑战 🔹 第一轮实验:研究人员用RFDiffusion设计了129种蛋白,但只有两种表现出微弱的催化活性。 🔹 优化策略:团队引入PLACER对这些蛋白进行二次筛选,提高酶的催化活性,最终可催化反应的酶数量增加了3倍以上。 🔹 酶反应停滞问题:尽管优化后的酶能够分解酯键,但许多酶在完成第一步反应后就停止了。这是因为部分反应产物会与酶自身结合,使其失去催化能力。 🔹 进一步优化:团队利用PLACER筛选能够进入中间态的酶,提高了酶的循环反应能力。最终,18%的设计酶成功分解酯键,其中两种(命名为“super”和“win”)能够持续多轮反应,具备真正的催化能力。 🔹 最终突破:研究人员通过多轮RFDiffusion与PLACER的迭代优化,最终设计出一种活性接近天然酶的人工酶,并证明该方法可用于设计能够降解PET塑料的酯酶。 AI辅助酶设计的未来 这项研究表明,尽管AI已经极大加速了酶的设计,但让酶具备完整的催化功能仍然是一项极具挑战性的任务。然而,AI的介入让研究人员可以在计算机上完成大部分筛选工作,减少实验室合成与筛选的成本,并且有可能设计出超越自然界的酶。 研究人员也提出了一个有趣的想法:如果将AI设计的酶放入细菌中,让它们在自然环境中进化,会不会产生更高效的降解能力? 生命可能会在AI的基础上找到更优的解决方案,这无疑是一个值得探索的方向。
前OpenAI CTO Mira Murati创办AI新公司
前OpenAI首席技术官(CTO)Mira Murati宣布成立新的AI公司——Thinking Machines Lab,专注于开发更易理解、可定制且功能更强的AI系统。 公司概况 Thinking Machines Lab今天正式公开,Murati担任CEO,核心团队成员包括: 公司目标是打造更易适应个人需求的AI,填补当前AI在可定制性和透明度上的不足。 官方博客提到,尽管AI技术发展迅速,但外界对其训练方法和工作原理的理解仍然有限。Thinking Machines Lab希望通过开发多模态AI系统,让AI能更好地与人协作,并应用于科学研究、编程等领域。 AI安全与研究方向 公司计划在防止模型滥用、分享安全实践、提供公开研究资源等方面做出贡献。官方表示,真正的突破来自于重新定义目标,而不仅仅是优化已有技术。 Murati的背景与创业历程 Murati于2024年10月离开OpenAI,称希望进行新的探索。她2018年加入OpenAI,主导了ChatGPT、DALL-E、Codex(GitHub Copilot核心技术)等项目,并在Sam Altman被解雇期间短暂担任临时CEO。 过去几个月,外界一直有传闻称她在招募前OpenAI、Character AI、Google DeepMind的研究人员。目前,公司已有29名员工来自这些机构。 未来发展 Thinking Machines Lab正在招聘机器学习科学家、工程师和研究项目经理,并被传正在寻求超1亿美元融资,但公司并未确认。 近年来,多个前OpenAI高管成立了自己的AI公司,例如Ilya Sutskever的Safe Superintelligence和Anthropic。Thinking Machines Lab的成立,也让AI行业的竞争进一步加剧。
Perplexity Deep Research:AI研究新时代
Perplexity正式推出Deep Research,一个能够自主进行深入研究和分析的AI工具,帮助用户节省大量时间。不论是金融、市场营销、产品研究等专业任务,Deep Research都能快速处理,并在“Humanity’s Last Exam”基准测试中取得高分。 更重要的是,这项强大的AI研究工具将免费开放。订阅Pro版的用户可享无限次查询,而非订阅用户每日可获得有限次数的免费体验。Web端已经上线,iOS、Android和Mac版也即将推出(请务必更新至最新版本)。 如何使用?用户只需前往Perplexity.ai,在搜索框的模式选择器中选择**“Deep Research”**,即可提交查询,让AI代劳繁琐的研究工作。 Deep Research如何工作? Deep Research的应用场景 这项技术专为需要高水平分析的复杂领域设计,不论是企业级研究还是个人决策,都能发挥强大作用。例如: ✅ 金融:市场趋势分析、投资机会研究✅ 市场营销:竞品分析、品牌战略规划✅ 科技:前沿技术解读、产品开发研究✅ 时事热点:深入解析全球新闻事件✅ 健康:个性化医疗建议、健康研究✅ 人物传记:详尽的历史人物分析✅ 旅行规划:最佳行程推荐、目的地深度探索 性能与数据表现 🔥 Humanity’s Last Exam:Deep Research达到了21.1%的准确率,远超Gemini Thinking、o3-mini、o1、DeepSeek-R1等主流AI模型。 🔥 SimpleQA:在数千个事实性问题的测试中,Deep Research取得93.9%准确率,远超行业平均水平。 🔥 运行速度:大多数研究任务能在3分钟内完成,团队仍在优化,以实现更快的研究体验。 开启AI深度研究时代 Perplexity Deep Research不仅提升了AI的信息检索能力,还真正将专家级研究分析普及给所有人。无论是商业决策还是个人学习,它都能成为用户的超级研究助手。
Mistral Saba:为中东和南亚量身打造的AI模型
AI全球化的关键:语言与文化的深度融合 人工智能要真正走向全球,必须深入理解不同文化和语言。随着AI的广泛应用,来自世界各地的用户都表达了对“本地化”AI的强烈需求——不仅仅是流利使用多种语言,而是能真正掌握地方特色、文化背景和区域知识,从而满足特定场景的精准需求。 Mistral Saba:为中东和南亚量身打造的AI模型 为了解决这一问题,Mistral推出了Mistral Saba,一款专为中东和南亚市场打造的区域语言AI模型。这款模型拥有240亿参数,通过精心筛选的数据训练而成,专注于阿拉伯语及多种印度起源语言,尤其在南印度语言(如泰米尔语)上表现出色。 尽管Mistral Saba的参数规模仅为部分大型通用模型的五分之一,但它的准确性更高、运行速度更快、成本更低,同时还能作为基础模型,进一步训练成更适应特定地区需求的定制版本。Mistral Saba不仅支持API调用,还能本地化部署,确保企业数据安全。其轻量级架构允许在单GPU系统上运行,响应速度超过150 tokens/秒,与Mistral Small 3保持一致。 跨文化交流的桥梁:Mistral Saba的多语言优势 考虑到中东和南亚地区深厚的文化联系,Mistral Saba不仅支持阿拉伯语,还涵盖多个印度起源语言,尤其是在南印度语系方面表现突出。这使得该模型成为跨国企业和政府机构处理多语言沟通需求的理想工具。 Mistral Saba的应用场景 Mistral Saba:真正理解中东文化的AI 凭借对语言细节和文化背景的精准把握,Mistral Saba正在迅速成为中东市场AI本地化解决方案的佼佼者。这不仅是技术的突破,更是AI全球化进程中的一次重要跨越。