AI 圈又炸了锅,这回是 01.AI 的创始人李开复亲自出场,语出惊人:“Sam Altman 估计最近睡得不太好。”至于为什么?因为 Deepseek 的开源策略正在狠狠冲击 OpenAI 的商业模型。 这场“风暴”起源于 01.AI 的一次大转向。原本还在搞自家大模型的 01.AI,干脆砍掉研发路线,全面拥抱 Deepseek 的开源模型,连李开复自己都称这是中国版的“ChatGPT 时刻”——热度飙升,行业集体上头。 据李开复透露,早在今年一月下旬,大量中国企业 CEO 就开始涌向 Deepseek,要求兼容或定制相关模型。眼看需求猛涨,01.AI 也不再坚持自主研发,转而专注于基于 Deepseek 的企业级定制服务,重点瞄准金融、游戏和法律三大领域。 最狠的是,李开复直言 Deepseek 的“免费开源”模式已经成为 OpenAI 最大的噩梦:“我已经见过不少人取消了 ChatGPT 订阅,只因为 Deepseek 是免费的。”一番话直接把矛头对准了 OpenAI 的核心商业逻辑。 他还补了一刀:“训练一个预训练大模型,得有上亿用户才能值回成本。阿里、谷歌、字节行,其他人没那个命。”这话听着是讲现实,但言外之意是:OpenAI 这座大厦,成本高、风险大,现在还碰上 Deepseek 这位“免费对手”,自然压力山大。 不过 01.AI 虽然放弃了训练模型,却不打算当“外包公司”。李开复表示,公司在微调、强化学习、推理加速等方面还有技术壁垒,依旧能提供高价值服务。按照他的预计,2025 年第一季度营收将达到 1 亿人民币,等于整个 2024 年的全年总收入,虽然目前还没盈利,但增长势头猛得很。 与此同时,OpenAI 和 Anthropic 也开始坐不住了,已联合呼吁美国政府禁止 Deepseek 模型,称其为“国家控制”。李开复对此回应一句话:“这说明他们已经开始慌了。” 他还补充了一些数据对比——OpenAI 2024…
Grok 3 最近升级,直接上了两大新技能,让整个 AI 工具箱变得更全能了:一个是“深一度”的 DeeperSearch 搜索功能,另一个是直接用文字就能改图的图像编辑器。
Grok 的用户最近迎来了双重惊喜:xAI 正悄悄上线两个新功能,一个是升级版的“深度搜索器”,另一个则是神秘登场的文字图像编辑器。目前这波更新正在平台上逐步铺开,已经有不少用户抢先体验。 先说搜索那一块,除了原有的 DeepSearch,现在又多了一个“DeeperSearch”。听名字就知道,这不是更深就是更慢——确实,它搜索时间翻了几番,但“翻书”速度慢换来的是更仔细的筛选。在实际测试中,DeepSearch 大概一分钟内能给出“最新 AI 新闻”的答案,来源多达 40 个,不过很多竟然是些 X 上的边缘账号,比如“feeltheomega”之类的 AI 网红号,链接的全是些垃圾资讯站。 而 DeeperSearch 则花了六分半时间,只翻了 19 个源头,最后挖出 4 条新闻:3 条来自《卫报》,1 条是 BBC 的 X 贴。虽然内容看起来更“认真”,但范围却明显缩水,连新闻事件都遗漏了不少。这也让人怀疑,xAI 的这个“DeeperSearch”到底是不是为新闻搜索设计的,官方目前也没个准话。 另一边,图像编辑功能也来了个悄咪咪上线。现在 Grok 用户上传图片后,只需要用文字描述想要的修改,比如“把背景换成海边”或者“让狗戴个墨镜”,系统就能自动处理。这功能和 Google 的 Gemini 模型很像,不过 xAI 目前还没高调宣传,只是有用户发现 X 平台和 iOS 版 Grok 上多了个“编辑图片”按钮。 另外值得注意的是,xAI 去年底发布的图像生成模型 Aurora 现在也通过 API 开放了。这模型主打“照片级真实感”,限制少,甚至连政治人物都能生成——这一点可是其他家很多模型都不敢碰的。 总之,Grok 的进化之路正往“又能查资料又能改图”的方向狂奔,但也暴露了些问题,比如新闻源质量不高、搜索结果缺失等等。下一步,就看 xAI 怎么解释 DeeperSearch 的真实用途,以及这套图像编辑功能会不会全面开放啦。
Claude“延展思考(extended thinking)”
Claude 最近上新了个狠角色,叫做 “think” 工具。这不是普通的“多想想”,而是给 Claude 自己腾出一个小空间,专门用来“停下来、理一理思路”。听起来简单,实则能让它在面对超级复杂任务时变得更加靠谱、条理清晰、决策稳定。 {“name”: “think”,“description”: “Use the tool to think about something. It will not obtain new information or change the database, but just append the thought to the log. Use it when complex reasoning or some cache memory is needed.”,“input_schema”: {“type”: “object”,“properties”: {“thought”: {“type”: “string”,“description”: “A thought to think about.”}},“required”: [“thought”]}}…
第二个DeepSeek?Manus AI
最近AI圈子里最火的话题非Manus莫属!这款由中国武汉创业公司“蝴蝶效应”推出的通用AI代理自上周发布以来,在全球范围内掀起了一阵热潮。不仅在国内备受瞩目,在国际科技圈也频频刷屏。连推特联合创始人杰克·多西(Jack Dorsey)和Hugging Face产品负责人维克多·穆斯塔尔(Victor Mustar)都对其赞不绝口,甚至有人称其为“第二个DeepSeek”——毕竟,这款AI的实力和它的“出身”都让人意想不到。 Manus到底是什么? 官方介绍称,Manus是全球首个真正意义上的“通用AI代理”。它并不像传统AI聊天机器人那样仅依赖单一大模型,而是集成了多个AI模型(包括Anthropic的Claude 3.5 Sonnet和阿里巴巴的开源Qwen的微调版本),并通过多个独立运行的代理协作完成各种任务。换句话说,它不仅会聊天,更具备主动执行复杂任务的能力。 当然,虽然热度空前,但能亲自体验到Manus的用户少之又少。当前,仅有不到1%的候补名单用户收到了邀请码,而Manus的Discord频道成员却已超过18.6万,足见市场期待值之高。 MIT科技评论的实测 MIT科技评论最近拿到了Manus的测试权限。整体体验下来,这款AI确实像一个超高效的智能实习生。它有时候会误解指令,甚至偶尔偷懒,但逻辑清晰、适应力强,而且给出详细反馈后会显著改进。虽然目前并不完美,但确实充满潜力。 Manus的界面设计简洁,默认语言为英语。登陆后,用户会看到一个类似ChatGPT或DeepSeek的主页,左侧显示历史对话记录,中间是聊天输入框。此外,官方还提供了一系列示例任务,如商业策略制定、交互式学习以及定制化音频冥想等。 一个独特的功能是**“Manus’s Computer”**窗口,允许用户实时查看Manus执行任务的过程,甚至在关键时刻介入调整,这点比大多数AI助手都更透明。 为了评测Manus的能力,测试员设置了三个任务: 任务1:寻找中国科技记者 初版名单仅包含5个记者,外加5个“荣誉提名”。部分记者的代表作被标注,部分却没有。问Manus原因,得到的答案令人哭笑不得——“偷懒了。”它直言自己在“优化研究效率”的过程中,部分信息没补充完整。在要求统一标准后,它迅速调整,最终给出了30名记者的详细列表,并附上了他们目前所在的媒体和代表作。值得一提的是,Manus的输出可以直接下载为Word或Excel文件,方便后续整理和分享。 不过,它在处理付费墙内容时遇到了障碍,许多新闻网站识别其为“可疑行为”并拒绝访问。如果未来版本能在遇到此类问题时主动请求用户协助,体验会更进一步。 任务2:搜寻纽约房源 Manus起初误解了“某种户外空间”的概念,直接筛掉了所有没有私人阳台或露台的房源。但经过调整,它最终生成了一个分层推荐列表,类似Wirecutter风格,包括“最佳整体选择”、“性价比最高”和“豪华选项”等类别。这项任务花了不到半小时,比整理记者名单快得多,可能是因为房地产数据更公开、结构化程度更高。 任务3:“35岁以下创新者”候选人 这个任务的难度最大。Manus需要研究往年榜单、制定搜索策略、筛选候选人,并确保多元化。然而,由于无法访问学术论文和部分新闻网站,研究进展受限。三小时后,它仅找到3个完整背景资料的候选人。最终,在强制要求下,它凑出了50个名字,但部分领域和机构过度集中,反映出研究仍有漏洞。在进一步补充“中国候选人”后,它确实找到了一些合适的人选,但不少是国内媒体常见的“明星创新者”。 最终评测 从实测来看,Manus确实是一个直观、适合无代码背景用户的AI工具。在某些任务上,它比ChatGPT DeepResearch表现更好,尤其擅长在开放网络上进行深入研究。但它的处理速度较慢,特别是涉及大范围搜索时,效率还有提升空间。 然而,它的稳定性仍需优化。测试过程中,Manus偶尔崩溃,甚至因服务器负载过高拒绝创建新任务。相比ChatGPT DeepResearch,它的任务失败率更高。Manus的首席科学家Peak Ji表示,团队正努力改善这一问题。而根据中国媒体36Kr的报道,每次任务的成本仅约2美元,远低于DeepResearch的20美元,成本优势明显。 Manus的一大亮点是透明且可定制的工作流程。它会主动询问问题,并在“知识”记忆中保留用户的重要指令,以便未来任务中使用。每个任务的操作步骤也可以回放和分享,提高了可控性和协作体验。 虽然Manus当前仍存在一些短板,但它已经展示了中国AI公司在通用智能代理上的独特创新能力,不再只是跟随西方步伐,而是在自主塑造AI技术的发展方向。未来,如果服务器架构得到优化,它有望成为白领、独立开发者和小型团队的新宠!
阿里巴巴发布 R1-Omni:首个基于 RLVR 的全模态大语言模型,用于情感识别
情感识别一直是 AI 领域的难题,尤其是 视觉与音频信号的融合。单独依赖视觉或音频的模型,往往会忽略二者之间的微妙关联,导致错误理解。此外,许多模型缺乏 可解释性,无法清晰说明如何得出情感判断,更别提在陌生场景下保持稳定性。 阿里巴巴研究团队 正式推出 R1-Omni (https://r1-omni.com/),一种 基于“可验证奖励强化学习”(RLVR)的全模态大语言模型,专为情感识别优化。相比现有方法,R1-Omni 不仅能准确预测情感,还能提供详细的推理过程,让 AI 决策更透明、更可解释。 R1-Omni 如何突破情感识别难题? 💡 核心技术 1:强化学习 + 可验证奖励(RLVR) 📈 核心技术 2:GRPO(群体相对策略优化) 实验结果:R1-Omni 在多个数据集上全面超越现有模型 🔹 在 DFEW 数据集上: 🔹 在 MAFW 数据集上: 🔹 泛化能力测试(RAVDESS 数据集): ✅ 可解释性更强: 未来展望:如何让 AI 读懂人类更复杂的情感? 尽管 R1-Omni 在情感识别领域取得了重大突破,但仍有待优化的方向: 🔍 字幕识别能力提升:部分音频数据存在噪音或字幕缺失,AI 仍需增强对音频内容的理解能力。🎭 更细腻的情感分析:当前 AI 仍难以完全模拟人类情感的微妙变化,未来可能需要更先进的音视频融合方法。🧠 推理逻辑进一步优化:减少 AI 生成 不符合事实 的解释,让…
Gemini Robotics:Google DeepMind 让 AI 机器人真正“动”起来!
Google DeepMind 正在打破 AI 仅限于数字世界的边界,正式推出 Gemini Robotics,一款基于 Gemini 2.0 的 AI 机器人模型。这次,AI 不再只是 看和听,而是 真正能动起来 了! Gemini Robotics 是一款 “视觉-语言-行动”(VLA)模型,让机器人具备更强的物理世界交互能力。此外,Google 还推出了 Gemini Robotics-ER(Embodied Reasoning),专注于 空间理解和推理,帮助机器人更精准地 感知、规划、执行任务。 这两款 AI 机器人模型将彻底改变机器人行业,使机器人能够执行 前所未有的复杂任务,并适应 全新的环境和设备。 Gemini Robotics 的三大核心突破 🤖 通用性(Generality) 🗣 交互性(Interactivity) ✋ 灵活性(Dexterity) Gemini Robotics-ER:让机器人真正“理解”世界 除了 Gemini Robotics,Google 还推出了专注于 空间推理 的 Gemini Robotics-ER,进一步增强机器人对 3D 物理世界 的理解能力。 🧠 更聪明的…
Meta 测试自研 AI 训练芯片,欲削减对 Nvidia 依赖
Meta 正在测试一款 自研 AI 训练芯片,希望借此减少对 Nvidia 等硬件厂商的依赖。据 Reuters(路透社) 报道,该芯片专为 AI 任务优化,由 台积电(TSMC) 代工,目前处于 小规模部署 阶段,若测试顺利,Meta 计划扩大生产。 这并非 Meta 首次尝试定制 AI 芯片。此前,该公司曾推出专门 运行 AI 模型的芯片,但 从未 涉及 训练 领域。然而,Meta 在芯片开发上的探索并非一帆风顺,过去已有多个芯片项目因未达预期而被取消或缩减规模。 目前,Meta 今年的资本支出预计高达 650 亿美元,其中大部分将用于采购 Nvidia GPU。如果自研芯片能部分替代 Nvidia 设备,即便削减 一小部分 成本,对 Meta 来说也是 重大利好。
Gemma 3 发布:最强单 GPU/TPU 可运行模型,性能超 Llama-405B!
Google DeepMind 再次掀起 AI 界的狂潮,正式推出 Gemma 3 ——一款轻量级但性能炸裂的开源 AI 模型。这款模型不仅沿袭了 Gemini 2.0 的前沿技术,还专为 单 GPU/TPU 设备 设计,无论是手机、笔记本,还是工作站,都能流畅运行。 过去一年,Gemma 生态(Gemmaverse)已经收获了 超 1 亿次下载,衍生出 6 万多个变体,成为开源 AI 领域的顶流。如今,Gemma 3 进一步升级,带来了 1B、4B、12B 和 27B 四种规格,开发者可以根据硬件和性能需求自由选择。 Gemma 3 新功能抢先看 🔥 全球最强单加速器模型:在 LMArena 排行榜的人类偏好测试中,Gemma 3 完胜 Llama-405B、DeepSeek-V3 和 o3-mini,成为同规格 AI 领域的佼佼者。 🌍 140 种语言支持:开箱即用支持 35+ 语言,预训练支持 140+ 语言,助力全球化 AI 应用。…
OpenAI 最新发布 Responses API 和开源 Agents SDK,开发者可自建 Deep Research 和 Operator 级 AI 代理
OpenAI 正在推出一套全新的 API 和工具,帮助开发者和企业更高效地构建 AI 代理。这些技术正是支撑其自家 AI 代理 Deep Research 和 Operator 的核心——前者能够自主搜索互联网,生成结构清晰、引文完整的研究报告,而后者则能根据用户文本指令自主操作浏览器,比如查找体育赛事门票或预订餐厅。 现在,开发者终于能直接使用这些强大 AI 代理的底层技术,打造自己的竞品,或是针对特定领域和受众定制更加专业的 AI 代理。 OpenAI 的 AI 代理进化史:从 Deep Research 到 Responses API OpenAI 近期在推理、多模态处理和安全机制上的突破,为 AI 代理的发展奠定了基础,尤其是其“o”系列推理模型(o1 和 o3)。 “推理模型对 AI 代理的能力至关重要,”OpenAI 平台产品负责人 Olivier Godement 说道。“过去,AI 代理最大的问题是无法处理复杂的长期任务,比如规划。” 然而,尽管 AI 代理的潜力巨大,开发者一直缺乏易于部署到生产环境的工具,直到现在。 让 AI 代理真正“懂事”:Responses API 和开源 Agents SDK 为了解决这些问题,OpenAI 推出了几款全新产品:Responses API、内置的网页搜索和文件搜索工具、计算机使用工具,以及开源的 Agents…
DeepSeek凭什么不拿VC的钱?这三个原因揭秘!
DeepSeek,这家正在颠覆AI行业的中国初创公司,至今仍未接受外部投资。在硅谷AI创业公司频繁宣布融资、资本竞逐AI模型的背景下,DeepSeek创始人梁文峰却稳坐钓鱼台,对蜂拥而至的投资人一概不理。**《华尔街日报》(WSJ)**近日揭秘了梁不愿引入外部资金的三大关键原因。 1. 梁文峰不想失去控制权 一般来说,创业公司需要外部资本支持,因此难免会受投资人影响。然而,DeepSeek是个特例。 早在2023年,梁在接受中国媒体采访时就曾抱怨VC们过于关注AI的快速变现,而非基础研究。因此,即使大量投资机构希望进入,梁始终不愿放权。 2. DeepSeek目前根本不缺钱 相比其他从零开始的AI初创公司,DeepSeek的资金来源并不依赖外部投资,而是靠High-Flyer基金的盈利输血。 3. VC投资可能加剧信任与隐私担忧 DeepSeek的中国背景让其在国际市场面临监管压力,而外部投资可能让情况更加复杂。 但DeepSeek不会永远拒绝投资 尽管梁目前不急于融资,但这并不意味着DeepSeek永远不会引入外部资本。 未来谁会投资DeepSeek? 虽然DeepSeek现在还在“谢绝VC”,但大厂们已经开始盯上它: 结论:DeepSeek还能独立多久? 梁文峰目前依靠High-Flyer的资金维持DeepSeek的独立性,同时避免VC干涉。但随着AI计算需求激增、盈利压力加大、基金表现下滑,DeepSeek终究可能不得不开放融资大门。 最终的问题是:当DeepSeek决定融资时,它会选择谁? 是腾讯、阿里等中国科技巨头,还是国际资本?这不仅关乎公司发展方向,也会影响其在全球市场的战略定位。