Meta最新的财报数据来了!在刚刚公布的2024年第三季度财报中,这家科技巨头的营收高达405.9亿美元,超出了市场预期的402.5亿美元,EPS(每股收益)也以6.06美元远超分析师预测的5.25美元。然而,用户增长未能达到预期,全球日活跃用户(DAU)增长5%至32.9亿,略低于预期的33.1亿。财报发布后,Meta股价在盘后交易中下跌超过3%。 AI加码,烧钱不减 Meta CEO马克·扎克伯格在财报电话会议上表示,公司业绩表现良好,AI正在推动旗下各类应用和业务增长。他特别提到,Meta在人工智能基础设施上的投资不会放缓,甚至预计2025年成本还会大幅增长。“我们在Meta AI、Llama大模型的采用,以及AI智能眼镜等领域都取得了强劲的进展。”扎克伯格说道。 公司表示,2025年基础设施支出将迎来“显著增长”,包括更高的折旧成本和运营支出,以支持更大规模的计算基础设施。虽然这一策略可能让投资者感到担忧,但扎克伯格强调,这是为了未来的持续增长做好准备,“即使这不是投资者最想听到的消息。” 此外,Meta广告业务继续回暖,其每条广告的平均价格同比增长11%,为公司贡献了稳定的收入来源。 元宇宙:史诗级创新还是烧钱大冒险? Meta的元宇宙业务——Reality Labs部门继续成为财务黑洞。公司预计2024年的相关亏损将“大幅增长”,过去几年,该部门已累计亏损近600亿美元。Meta CFO Susan Li在电话会议上回避了“是否已经达到亏损峰值”的问题,仅表示元宇宙“仍然是我们的长期战略重点之一。” 然而,Meta的CTO安德鲁·博斯沃思(Andrew Bosworth)在一份内部备忘录中明确表示,2025年将是决定元宇宙成败的关键一年。他在题为**《2025:伟大之年》**的帖子中强调,Reality Labs计划推出至少六款AI驱动的可穿戴设备,并推动混合现实(MR)产品的销量、用户留存和参与度。他直言:“如果你还没感受到历史的压力,那你根本没有在关注现实。” 他还强调,Meta必须确保旗下虚拟世界Horizon Worlds在移动端获得突破,否则整个元宇宙计划的前景将岌岌可危。“2025年将决定我们的努力是被视为远见卓识,还是一场史诗级的失败。” Meta的豪赌能否兑现? 尽管Meta在AI和元宇宙方面持续投入,但现实情况却不容乐观。在AI领域,Meta的Llama大模型仍面临OpenAI、谷歌和微软的激烈竞争,而在智能硬件市场,Meta的AI智能眼镜虽已售出100万副,但扎克伯格也承认这“只是一个不错的开始”,远未达到真正撼动市场的水平。 与此同时,Meta虽然在2024年增加了9%的员工总数,但自2022年底以来,公司已裁员超过2万人,仍在不断寻找优化运营的方式,以平衡投资与支出。 Meta如今站在一个十字路口——AI和元宇宙是它的未来愿景,但目前这条道路仍充满不确定性。2025年,Meta究竟能否兑现其“伟大之年”的承诺,还是会沦为一场“传奇级的错误”?这将是全球投资者和科技行业都在密切关注的问题。
Author: aitrendtrackers@rengongzhineng.io
AI取代人类?
一般来说,大型企业谈及人工智能时,总是强调它如何让员工的工作更加有趣,或者如何创造新的就业机会来弥补被淘汰的岗位。然而,瑞典金融科技公司Klarna的CEO Sebastian Siemiatkowski却完全不按常理出牌。他不仅公开表示AI可以胜任人类的所有工作,还豪言壮语地宣称,Klarna已经通过AI节省了数千万美元,甚至连自己的工作都可能被AI取代。 过去一年里,Klarna不断宣传其在AI自动化上的突破,特别是在营销、法律合同处理、媒体分析和客服等领域。据称,该公司的AI聊天机器人已经取代了700名客服人员,并能在不到两分钟的时间里解决客户问题,比人类客服快了九分钟。Siemiatkowski甚至特意打造了一个AI版的自己,在去年三季度财报发布时“亲自”出镜,向投资者展示AI如何渗透到高层管理中。 然而,这位CEO并不认为AI只是帮助员工减少琐碎工作,让他们从事更有价值的任务。相反,他在采访中直言,AI的发展意味着很多人将直接失业,而不是轻松转行。他举例说,AI已经让成千上万的专业翻译员失业,嘲讽式地质疑:“难道要告诉一个55岁的翻译员,‘别担心,你可以去当YouTube网红’?” Klarna的自动化浪潮不仅影响了普通员工,甚至直接导致公司裁员。自2023年9月起,该公司基本停止招聘,员工总数从约5000人缩减至4000人,并计划最终减少至2000人。虽然外界曾质疑其“停止招聘”的真实性,但无论如何,Klarna的AI转型正在深刻改变其用工结构。 相比起其他科技公司对AI的谨慎态度,Siemiatkowski的激进立场显得尤为突出。IBM CEO Arvind Krishna曾表示,AI会“减少重复性任务,让员工专注于更高价值的工作”,但Klarna的做法显然更加直接:能自动化的,就不再需要人类参与。 AI:革命还是炒作? 尽管Siemiatkowski大力宣传AI,但外界对Klarna的自动化策略仍存疑。例如,科技媒体TechCrunch调查发现,在Klarna宣称“停止招聘”一年后,公司仍然在招聘工程师等关键岗位。甚至有报道称,Klarna的客服自动化程度并不比行业内其他公司更高,只是之前依赖人工客服过多,因此裁员规模更大。 此外,经济学家Erik Brynjolfsson的研究表明,AI在客服等领域的确能提高员工效率,但短期内完全取代人类并不现实。当前AI的强项更多体现在优化流程,而非完全独立执行复杂任务。然而,Siemiatkowski的表述往往更具戏剧性,甚至可能夸大了AI带来的直接影响。 从“支付独角兽”到“AI试验田” Klarna创立于2005年,最初专注于“先买后付”业务,帮助消费者分期支付购物款项。公司凭借这一模式迅速崛起,并获得了硅谷风投的青睐。2021年,Klarna估值一度飙升至456亿美元,成为欧洲最具价值的金融科技公司之一。然而,疫情后市场环境急剧变化,投资者态度趋于保守,Klarna的估值在2022年暴跌至67亿美元,并在同年裁员10%。 在此背景下,Siemiatkowski开始大力推进AI转型,并将Klarna包装成AI时代的先锋。他不仅与OpenAI CEO Sam Altman建立了联系,还主动表示Klarna愿意成为OpenAI的“AI小白鼠”。在一次播客采访中,他回忆起最初体验ChatGPT的场景:“2022年11月,我在Twitter上看到有人说‘快来试试这个’,然后我就打开ChatGPT,心想,‘天啊,我真的在跟一个电脑对话’。”随后,他迅速推动公司内部试用AI,并频繁对外宣传Klarna的AI进展。 然而,Klarna的AI战略是否真正具备革命性,还是更像一场精心策划的公关秀?随着更多企业加速AI转型,Siemiatkowski的激进言论或许只是资本市场上的一种“自我营销”,而AI究竟能在多大程度上取代人类工作,仍然是一个未解之谜。
OpenAI新商标申请曝光:AI硬件、机器人、量子计算全线布局?
上周五,AI初创公司OpenAI向美国专利商标局(USPTO)提交了一项新的商标申请,涵盖与其品牌“OpenAI”相关的产品。正常情况下,这种操作并不值得大书特书,毕竟企业申请商标是家常便饭。但这次的申请却暗示了OpenAI正在布局一系列新产品,包括短期内可能推出的,以及更具未来感的技术概念。 申请文件中提到的硬件设备五花八门,从耳机、护目镜、眼镜、遥控器,到笔记本电脑和手机壳,甚至还包括智能手表、智能珠宝以及虚拟现实(VR)和增强现实(AR)头显,全部被归类为“用于AI辅助互动、模拟和训练”的设备。 其实,去年OpenAI就已经确认正在与前苹果设计师Jony Ive合作开发一款硬件产品,而就在本周日,该公司CEO Sam Altman在接受韩国媒体《The Elec》采访时也透露,OpenAI希望通过与多家企业合作,研发AI驱动的消费级硬件。不过,Altman也强调,哪怕是一个AI设备的原型机,至少还需要“数年”时间才能完成。 更加吸引眼球的是,OpenAI的商标申请中还提到了机器人,尤其是“可由用户编程的人形机器人”,以及具备沟通和学习功能、能够提供辅助和娱乐服务的智能机器人。 这与OpenAI近期的招聘信息不谋而合。去年11月,该公司从Meta的AR眼镜部门挖来了Caitlin Kalinowski,任命其为硬件团队负责人,而最近,OpenAI也开始组建新的机器人团队。据《The Information》报道,该团队可能会研发类人机器人,搭载定制传感器和AI系统,目标是让它们具备类人智能,在现实世界中独立运行。 此外,OpenAI的商标申请还提到了定制AI芯片以及利用量子计算资源优化AI模型性能的服务。 事实上,关于OpenAI自研AI芯片的传闻早已流传甚广。据悉,该公司内部已经有专门的芯片设计团队,而多方消息显示,OpenAI计划最早在2026年与半导体制造商Broadcom和台积电(TSMC)合作推出自研芯片。 至于量子计算,OpenAI的具体计划仍然是个谜。不过,该公司去年招募了一名前PsiQuantum的量子系统架构师加入技术团队,这一举动引发了外界猜测。正如《The Register》在3月份的报道中所提到的,量子计算凭借同时执行海量计算的能力,有望极大提升AI模型训练的效率。而考虑到AI的计算成本居高不下,OpenAI或许正试图探索完全不同于现有计算架构的解决方案。 不过,商标申请通常都是宽泛定义的,未必真正代表公司未来的产品规划。OpenAI的申请文件或许揭示了该公司正在探索的领域,甚至可能只是一个想法的备选清单。至于这些技术究竟何时,甚至是否能变成现实,仍然充满未知。
OpenAI 正式推出Deep Research。
OpenAI 正式推出一款全新的 AI “智能研究助手”,专为需要深入研究和复杂信息分析的用户打造,而它的名字也十分直白——Deep Research。 根据 OpenAI 在周日发布的博文,这项新功能主要面向金融、科学、政策、工程等领域的专业人士,以及需要精准、可靠信息支持的研究型用户。当然,官方还补充道,Deep Research 也适用于日常生活中那些需要认真比对的消费决策,比如购车、家电选购或家具挑选。 换句话说,Deep Research 适用于那些不满足于简单答案或摘要,而是需要从多个来源深度挖掘信息的场景。 Deep Research 限量开放,未来扩展至更多用户 目前,Deep Research 已向 ChatGPT Pro 用户开放,每月限 100 次查询。接下来,OpenAI 计划在未来一个月内向 Plus 和 Team 级用户开放,最终覆盖 Enterprise 订阅。而对于英国、瑞士及欧洲经济区的用户,OpenAI 目前还没有明确的发布时间表。 使用 Deep Research 也很简单——用户只需在 ChatGPT 的“撰写器”(composer)中选择“Deep Research”模式,然后输入查询内容,甚至可以附上文件或电子表格进行分析。目前,这项功能仅支持网页端,但 OpenAI 计划在本月晚些时候推出移动端和桌面应用集成。 不过,Deep Research 需要一定时间来处理查询,可能需要 5 到 30 分钟。完成后,用户将收到通知。 目前仅支持文本输出,未来将增加图像和数据可视化 当前 Deep Research 的答案是纯文本形式,但 OpenAI 透露,他们计划很快加入嵌入式图像、数据可视化等功能。此外,未来…
Deepseek-R1 和 OpenAI o1 这样的推理模型普遍存在“思考不足”的问题
中国研究人员终于揭开了 AI 在复杂推理任务中“掉链子”的秘密——这些模型往往过早放弃有潜力的解决方案,导致计算资源浪费,答案准确率也随之下降。 来自腾讯 AI Lab、苏州大学和上海交通大学的研究团队发现,像 OpenAI 的 o1 这样的推理模型在解题时总是不断切换策略,甚至频繁重启思路,比如爱用“换个角度来看……”这样的开头。随着问题变得更难,这种行为愈发明显,计算量也随之飙升,但结果却未必更准。 举个例子,QwQ-32B 模型在一个任务中尝试了 25 种推理路径,而 QwQ-32B-Preview 也在同一任务中不断变换思路,最终浪费了大量算力。研究发现,70% 的错误答案其实包含了正确的推理线索,但模型没有坚持下去。当 AI 给出错误答案时,它平均会多消耗 225% 的计算资源,并且策略变更频率比正确答案高出 418%! 为了深入研究这一问题,团队专门设计了一项衡量模型计算效率的新指标,分析它们在得出错误答案时,有多少计算资源真正贡献在有效推理上,又有多少被无意义的策略切换浪费掉。 研究人员用三类高难度问题测试了 AI 的推理能力:数学竞赛题、大学物理题和化学问题,目标是评估 QwQ-32B-Preview、Deepseek-R1-671B 等模型如何处理复杂推理。结果显示,o1 这类大模型在面临难题时容易陷入“推理崩溃”,计算资源被不断尝试新方法消耗殆尽。然而,正确率更高的模型并不一定更高效,它们可能只是更擅长找到最终答案,而非更聪明地利用计算资源。 如何让 AI“坚持己见”?为了解决“思维不坚定”问题,研究团队提出了一种新的解码策略——“思维切换惩罚”(TIP)。它通过调整模型的概率分布,降低某些表示策略变化的词语(比如“或者”)的权重,从而让 AI 在跳到新思路前,更深入地探索当前路径。 结果表明,TIP 确实让 AI 更加“坚定立场”:QwQ-32B-Preview 在数学竞赛 MATH500-Hard 任务中的正确率从 82.8% 提高到了 84.3%,并且推理过程更加稳定。这一改进同样适用于 GPQA Diamond、AIME2024 等高难度测试集。 研究人员表示,这项研究揭示了一个关键点——提升 AI 的推理能力并不只是堆砌更多算力,而是要教会模型什么时候应该坚持,什么时候才该换思路。未来,他们计划进一步优化 AI 的问题解决方式,让它们自主判断“该坚持还是该变通”,从而真正实现更高效、更聪明的推理过程。
OpenAI发布o3-mini,以应对DeepSeek-R1的挑战
OpenAI正式推出o3-mini推理模型,旨在应对近期开源竞争对手DeepSeek-R1的快速崛起。在过去几天里,关于o3-mini的传闻不断,今天它终于在ChatGPT和API服务中上线,并向免费用户提供有限访问权限。 o3-mini是OpenAI最新的推理模型,相比传统的语言模型,它会花更多时间**“思考”,分析自身推理过程,并优化回答质量。该模型专为数学、科学、工程和编程等领域的高难度问题设计,目标是达到博士生或专业人士**的水平。 性能与特点 OpenAI表示,o3-mini比o1-mini快24%,同时在准确性上有明显提升。早期测试显示: 此外,o3-mini的上下文窗口为200,000个Token,超过DeepSeek-R1的约128,000-130,000个Token,但远低于Google Gemini 2.0 Flash Thinking的100万Token。 不过,o3-mini目前不具备视觉功能,仍然需要依赖o1来处理图片和文件上传任务。 与DeepSeek-R1的竞争 o3-mini的发布正值DeepSeek-R1席卷AI市场之际。DeepSeek-R1是一个高度开源的推理模型,允许全球开发者免费下载、再训练和定制,其训练成本据称远低于o1。DeepSeek的免费应用和开放许可,使其迅速获得了消费者和企业市场的青睐,甚至微软和亚马逊等公司也纷纷在其云市场中上线DeepSeek-R1的变体。 DeepSeek还在iOS应用商店超过ChatGPT,成为美国下载量最高的AI应用,并且在其应用和网页版中集成了搜索功能,而OpenAI尚未为o1提供类似功能。这让不少科技从业者担忧,美国的AI创新速度是否正在被中国赶超。 然而,安全性仍然是OpenAI的优势之一。OpenAI表示,o3-mini采用**“深度对齐”(Deliberative Alignment)方法,在安全性和抗越狱能力上优于DeepSeek-R1**。一项由安全研究机构进行的测试显示,DeepSeek-R1在50次越狱测试中全军覆没,这可能会影响其在安全和合规要求较高的企业市场的竞争力。 ChatGPT和API接入 o3-mini现已面向ChatGPT免费、Plus、Team和Pro用户推出,企业和教育版将在下周上线。 定价方面,o3-mini的API比o1-mini便宜63%,比o1便宜93%,但仍远高于DeepSeek-R1的API成本($0.14/$0.55 per million tokens),后者的低价策略可能会让部分企业用户更倾向于选择DeepSeek。 未来展望 OpenAI正处于前所未有的竞争压力之下,不仅要面对DeepSeek这样的开源挑战者,还要与Google Gemini 2.0 Flash Thinking等其他大厂AI竞争。同时,OpenAI近期宣布了5000亿美元的Stargate数据中心计划,这对其融资能力提出了更高要求。 随着开源模型逐渐缩小与OpenAI的差距,未来的关键问题是:OpenAI是否能凭借更强的安全性、强大的API生态和用户体验,继续吸引企业和开发者? 还是说,低成本和开源的趋势将彻底改变AI行业格局? 未来几个月的市场反应将决定这场AI竞赛的走向。
OpenAI今天正式推出o3-mini推理模型
OpenAI今天正式推出o3-mini推理模型,并将其集成到ChatGPT和API服务中,同时向免费用户开放有限使用权限。 两周前,OpenAI首席执行官Sam Altman 曾透露,o3-mini将在“几周内”发布,这次如期上线。o3-mini的设计目标是在数学、编程和科学领域达到o1的性能水平,但响应速度更快。OpenAI表示,o3-mini的响应速度比o1-mini快24%,并且回答的准确性更高。 与o1-mini类似,o3-mini不仅会提供答案,还会展示推理过程,让用户了解AI是如何得出结论的。OpenAI提供的早期基准测试显示,o3在多个编程和推理任务上优于o1,并且成本更低、延迟更短。开发者可以通过Chat Completions API、Assistants API和Batch API 访问o3-mini。 此外,付费用户还可以选择o3-mini-high,这是ChatGPT中最佳的编程选项,可以生成更高智能的回答,但响应时间稍长。o3-mini还支持联网搜索,并附带来源链接,以便用户查阅相关信息。 这是OpenAI首次向免费用户开放推理模型,正值微软宣布Copilot用户可免费使用o1,以及DeepSeek引发AI行业震动之后。ChatGPT的免费用户现在可以在聊天栏选择“Reason”模式 试用o3-mini,使用限制与GPT-4o的免费版相似。ChatGPT Plus、Team和Pro用户也可以使用o3-mini,Plus和Team用户的消息限制增加至每天150条,而Pro用户(每月收费200美元)可以无限制使用 o3-mini。 微软也宣布,o3-mini已集成到Azure OpenAI服务、GitHub Copilot和GitHub模型,进一步扩展了该模型的应用范围。
Qwen2.5-Max:超越 DeepSeek 的大规模 MoE 模型的智能探索
众所周知,持续扩大数据规模和模型规模能够显著提升人工智能的智能水平。然而,无论是稠密模型还是专家混合(MoE)模型,业界在如何高效扩展超大规模模型方面仍处于探索阶段。直到 DeepSeek V3 的发布,一些关键的技术细节才得以曝光。与此同时,Qwen 团队也在打造 Qwen2.5-Max——一款经过 20 万亿 tokens 预训练,并结合精细的监督微调(SFT)与人类反馈强化学习(RLHF)进行后训练的大规模 MoE 模型。如今,Qwen2.5-Max 的性能评测结果正式公布,同时其 API 已上线阿里云,用户可通过 Qwen Chat 直接体验。 性能表现 Qwen2.5-Max 在多个行业关注的权威基准测试中,与主流开源及闭源模型展开对比。其中包括用于大学水平知识测试的 MMLU-Pro、衡量代码能力的 LiveCodeBench、全面评估模型泛化能力的 LiveBench,以及模拟人类偏好的 Arena-Hard。此外,Qwen2.5-Max 在 GPQA-Diamond 等高难度测试中同样表现出色。此次评测涵盖了基础模型和指令微调模型两大类别。 在指令微调模型的对比中,Qwen2.5-Max 在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等测试中均超越 DeepSeek V3,同时在 MMLU-Pro 等其他基准上展现出竞争力。针对基础模型的对比,由于无法获取 GPT-4o 和 Claude-3.5-Sonnet 等闭源模型的结果,此次 Qwen2.5-Max 主要对比了 DeepSeek V3(领先的开源 MoE 模型)、Llama-3.1-405B(最大规模的开源稠密模型)以及自家 Qwen2.5-72B。评测数据显示,Qwen2.5-Max 在多数基准上具备明显优势,未来通过优化后训练技术,模型性能仍有进一步提升的空间。 如何使用 Qwen2.5-Max 目前,Qwen2.5-Max 已集成至 Qwen…
软银计划向OpenAI投资250亿美元,或成最大股东
日本科技巨头软银正与OpenAI洽谈投资协议,计划投入高达250亿美元,这将使其成为OpenAI最大的单一投资方,超过长期支持者微软。 此外,软银还计划与OpenAI展开更广泛的人工智能合作,整体投资额可能超过400亿美元,成为AI领域史上最庞大的私营资本注入之一。 投资细节:软银如何布局AI? 📌 250亿美元直接投资OpenAI 📌 1000亿美元数据中心项目“Stargate” 📌 OpenAI将转型为 “营利性”公司 为何此时投资?DeepSeek搅乱市场,Nvidia市值蒸发 这一投资计划的时间点非常微妙,因为中国AI公司DeepSeek本周发布的R1推理模型,令全球科技市场产生震动。 📉 Nvidia单日市值蒸发5890亿美元 📌 OpenAI指控DeepSeek“技术剽窃” 微软失去独家控制权,OpenAI“去微软化”? 这次软银的大手笔投资,意味着OpenAI正在逐步减少对微软的依赖。 结论:软银豪赌AI,OpenAI摆脱微软依赖 ✅ 软银或将成为OpenAI最大投资方,影响AI行业格局。✅ “Stargate”数据中心项目将重塑AI基础设施,投资规模前所未有。✅ DeepSeek的崛起让市场震动,AI行业正进入新一轮竞争。✅ 微软不再独占OpenAI,未来其影响力可能逐步下降。 随着人工智能竞争加剧,软银这笔巨额投资,不仅关系到OpenAI的未来,也可能影响整个AI产业的全球格局。
DeepSeek的崛起是否削弱了美国对华芯片出口管制的正当性?
几周前,曾有人主张加强美国对华芯片出口管制,以限制中国在人工智能领域的快速发展。然而,DeepSeek——一家中国AI公司——近期推出的R1推理模型,在某些方面接近美国最前沿的AI模型,且训练成本大幅降低。这让外界开始质疑,既然中国AI企业能够在有限计算资源下取得突破,那么芯片出口管制是否仍然有效? 答案是:管制不仅仍然有效,而且比以往任何时候都更加重要。 出口管制的核心目标 出口管制的目的,并不是为了逃避中美之间的AI竞争,而是确保民主国家在人工智能发展上保持领先。最终,美国及其盟友必须拥有比中国更强大的AI模型,才能在全球竞争中取胜。但这并不意味着应该主动向中国共产党提供技术优势。 在讨论政策之前,先来理解影响AI发展的三个关键动态。 三大AI发展动态 1. AI的“规模法则”(Scaling Laws) 人工智能的发展遵循规模法则(Scaling Laws):训练规模越大,模型的智能水平就越高。 例如: 这种指数级的提升意味着,更高算力、更大数据、更长时间的训练,都能带来智能水平的突破。因此,各大AI公司投入巨资训练模型,希望通过不断扩展规模来领先竞争对手。 2. 计算效率的提升(Shifting the Curve) AI行业一直在寻找提高计算效率的方法,无论是优化模型架构,还是改进硬件。任何技术突破,都会降低相同算力下训练模型的成本。 举例来说: 然而,成本降低并不意味着公司会减少投资。反而,公司通常会把节省下来的预算投入更强的模型,以保持竞争力。因此,AI训练成本仍然在增长,而不是减少。 3. 推理模型的新范式(Shifting the Paradigm) 2020-2023年,AI的主要发展模式是大规模预训练(Pretraining),即用海量互联网数据训练基础模型。 2024年,强化学习(Reinforcement Learning, RL)成为新的突破点,用于训练模型的推理能力。OpenAI、Anthropic、DeepSeek等公司都开始用RL训练AI进行“思考”,让其在数学、编程、逻辑推理等领域表现更强。 目前,RL训练仍处于早期阶段,即使增加10倍的训练预算,也能带来显著的性能提升。因此,所有AI公司都在加速投资这一方向。 DeepSeek的真正突破是什么? DeepSeek最近的发布可以分为两个阶段: 其中,DeepSeek-V3才是最值得关注的技术突破。该模型在某些测试中接近美国顶级AI,但训练成本显著降低。这背后的关键原因是: 尽管DeepSeek的进展令人瞩目,但仍需理性看待: DeepSeek的进步是否意味着出口管制无效? 并不意味着出口管制失败,相反,它更加必要。 📌 DeepSeek并没有突破AI成本曲线,它的成就仍然符合AI行业每年成本下降4倍的趋势。 📌 DeepSeek能够成功,是因为它仍然拥有足够的算力。 其Hopper芯片集群大约有 5万块,虽然比美国顶级AI公司少 2-3倍,但仍然足以训练高质量模型。 📌 中国并未完全规避出口管制。 出口管制的核心作用:决定AI超级强国的归属 在 2026-2027年,全球将迎来AI超智能时代,届时最顶级的AI模型需要: 如果中国能够获得这些资源,全球AI格局将进入“中美双极化”: 如果中国无法获得这些芯片,那么全球AI格局可能仍由美国主导: 出口管制的必要性 出口管制是决定AI超级强国归属的核心手段。 📌 DeepSeek的突破不意味着中国可以随意绕过管制。 📌 美国必须加强出口管制,防止中国获得数百万块AI芯片。…