苹果公司即将启动一项为期三年的计划,旨在彻底重塑其标志性的iPhone产品线,这将成为近年来最重要的产品变革之一。据悉,苹果将在即将举行的秋季发布会上揭开这一系列变革的序幕,包括首次推出全新型号“iPhone Air”,以及后续将在2026年和2027年推出的可折叠iPhone和曲面玻璃iPhone。 当前iPhone外观与五年前的产品相比变化不大,尽管边角略有调整、颜色有所变化,摄像头模块也更为突出,但整体设计风格几乎保持一致。这种设计保守的策略导致消费者对新一代iPhone的购买动机逐渐从“外观吸引”转向“功能刚需”,如电池老化、屏幕破裂或对更高质量的拍照和视频功能的需求。 苹果决定改变这一局面。从2025年起,公司将连续三年推出重大设计更新的iPhone产品。首款产品“iPhone Air”将在今年9月亮相,它将取代现有的iPhone 16 Plus型号。iPhone Air延续了苹果2008年推出MacBook Air时的轻薄理念,采用更纤薄、更轻巧的设计,并因其差异化外观和命名策略而更具市场传播力。 不过,这款新产品也将做出一些权衡:电池续航能力有限,仅配备一个后置摄像头,且取消了实体SIM卡槽。更重要的是,iPhone Air将首次采用苹果自主研发的调制解调器芯片,代替此前采用的高通芯片。 除了iPhone Air,苹果还将同步推出iPhone 17、17 Pro和17 Pro Max系列。整体外观与iPhone 16相似,但Pro系列将在背部设计和摄像系统上进行小幅调整,并新增橙色配色方案(Air版本则为浅蓝色)。尽管更新幅度有限,但Pro系列依然是苹果的销售主力,预计今年销量不会受到太大影响。 更具变革意义的是2026年预计发布的可折叠iPhone。该设备代号为V68,其设计类似三星的书本式折叠手机,展开后可用作小型平板电脑。V68将配备四枚摄像头(前置、内屏和两枚后置),同样取消SIM卡槽,并采用Touch ID而非Face ID,略显复古。但预计该设备将受到苹果忠实用户的热烈追捧。苹果供应商已在准备该产品的生产计划,预计明年初量产,以配合秋季发布。 苹果还在对其可折叠iPhone的屏幕技术进行调整,原计划采用“on-cell”触控方案,但因可能导致屏幕折痕明显,目前公司正转向“in-cell”技术,这将更接近现有iPhone的触控体验,有助于减轻折痕并提升触控精准度。 而在2027年,苹果将推出一款纪念iPhone诞生20周年的“iPhone 20”,它将首次采用全曲面玻璃设计,彻底摆脱自2020年以来延续至今的直角边框造型。这款手机将与即将推出的基于Liquid Glass技术的iOS新系统完美结合,成为软件与硬件融合的又一里程碑。 尽管2025年不会带来彻底的革命性变化,但其意义在于为未来两年的重大转型奠定基础。 除iPhone外,苹果今年秋季还将推出多款产品更新,包括Apple Watch系列、搭载M5芯片的iPad Pro、全新AirPods Pro(支持心率监测功能)、更新版HomePod mini和Apple TV机顶盒等。此外,明年还计划推出入门级iPhone 17e、新款低端iPad和iPad Air、搭载M5芯片的MacBook Pro和Air,以及新一代外接显示器等。 更令人关注的是,苹果还计划进入一个全新的产品类别——配备屏幕的HomePod智能音箱。这款产品将运行一个名为“Charismatic”的家庭中枢操作系统,旨在与亚马逊和谷歌在智能家居领域展开竞争。 展望未来,苹果的研发方向包括不配备显示屏的智能眼镜、桌面机器人、更轻更便宜的头显设备、带摄像头的AirPods、可折叠iPad-Mac二合一设备,以及家庭安防系统等。 虽然产品线日益多元化,但iPhone仍是苹果所有业务的核心,而这项升级计划表明,它仍将长期处于苹果战略布局的中心位置。 在服务业务方面,苹果正通过新增订阅项目和涨价策略以维持营收增长。该部门目前年收入约达1000亿美元,成为iPhone之外利润最丰厚的业务领域。 面对App Store监管加强、应用内支付政策调整,以及与谷歌高达200亿美元的搜索合作协议可能被法庭叫停的风险,苹果已采取一系列应对措施。 例如,公司于7月推出AppleCare One订阅服务,每月收费20美元,涵盖三台设备的维修保障。同时,Apple TV+的月费也从9.99美元上调至12.99美元,尽管内容有所扩展,但相比竞争对手仍存在差距。未来还将推出AI驱动的Apple Health+健康订阅服务,提供营养规划与医疗建议。 在人工智能方面,苹果目前正处于是否继续独立研发AI模型还是采用外部技术的决策阶段。据悉,公司正与谷歌、Anthropic及OpenAI展开合作谈判。特别是与Anthropic的合作已延伸至内部开发工具和部分消费级功能,例如为开发者版Xcode引入Claude AI。 近期,苹果还与谷歌商讨在私有云架构上部署Gemini模型,以协助提升Siri语音助手的响应能力。尽管尚未做出最终决定,但管理层正认真考虑采用第三方方案。 在AI人才方面,苹果近期流失严重,仅过去两个月内已有6位核心成员跳槽至Meta,包括基础设施团队的重要高管Frank Chu和AI模型负责人Ruoming Pang。此现象部分反映出苹果在AI战略上的困境,以及Meta开出的高额薪资所产生的强大吸引力。 此外,关于为何AirPods Max迟迟未更新的问题,业内分析认为该产品销量介于“尚可与不够”之间,既不足以被淘汰,又不值得投入大量资源进行彻底升级。目前,该产品仅因欧盟法规新增了USB-C版本。苹果的音频团队更倾向于优先更新销量更大的入耳式AirPods系列及其配套音箱、麦克风产品。 至于苹果即将推出的智能眼镜,业内人士普遍看好其市场前景。凭借在音频与摄像技术方面的深厚积累,以及对iPhone的深度整合能力,苹果有望在功能上全面超越Meta的同类产品。而最终成败或将取决于产品定价策略。 最后,关于Vision…
Author: aitrendtrackers@rengongzhineng.io
2025年金融机构实用企业AI指南:大型语言模型(LLM)与小型语言模型(SLM)的比较
在2025年,大型语言模型(LLMs,参数≥30B,通常通过API访问)与小型语言模型(SLMs,约1–15B,通常为开源或专有模型)之间,并不存在“一统天下”的解决方案。银行、保险公司以及资产管理机构在选择语言模型时,需综合考量监管风险、数据敏感性、延迟与成本要求以及使用场景的复杂性。 在结构化信息提取、客户服务、代码辅助及内部知识任务中(特别是结合RAG技术和强防护机制时),推荐优先采用SLM。若面对复杂的信息综合、多步骤推理,或SLM无法满足性能标准而成本和延迟可接受时,再考虑升级使用LLM。 无论模型大小如何,金融机构都必须将LLM和SLM纳入模型风险管理(MRM)框架,遵循NIST AI风险管理框架(AI RMF),并确保如信用评分等高风险应用与欧盟AI法案的合规义务相对应。 1. 监管与风险态势 金融服务业受到成熟的模型治理标准约束。在美国,联邦储备委员会、货币监理署(OCC)及联邦存款保险公司(FDIC)联合发布的SR 11-7适用于所有用于商业决策的模型,包括LLM和SLM。这意味着无论模型大小,都必须进行验证、监控和文档记录。NIST发布的AI RMF 1.0已成为AI风险控制的黄金标准,并广泛应用于传统与生成式AI的管理。 在欧盟,AI法案已正式生效,并设定了分阶段的合规时间表:2025年8月起针对通用模型,2026年8月起针对高风险系统(例如附录III所列的信用评分)。高风险模型需符合上市前一致性评估、风险管理、日志记录与人工监督等要求。计划进军欧盟市场的金融机构需相应调整整改时间表。 核心行业数据规定同样适用: **重点:**高风险应用(如信贷、承保)必须实施严格控制,无论模型参数数量如何。所有模型都应进行可追溯的验证、隐私保障及合规管理。 2. 能力、成本、延迟与部署足迹权衡 SLMs(3–15B)在经过微调与RAG增强后,已能在金融领域工作负载中提供高准确率。例如Phi-3、FinBERT、COiN等模型在信息提取、分类与流程增强方面表现出色,同时延迟控制在50毫秒以下,且适合自托管,满足数据本地化部署需求,甚至可在边缘设备上运行。 LLMs则擅长跨文档信息整合、异构数据推理及长上下文处理(>100K tokens)。像BloombergGPT(50B)这类领域专用LLM,在金融基准测试和多步骤推理任务中远超通用模型。 从计算经济学看,Transformer模型的自注意力机制在序列长度增加时呈二次增长,虽然FlashAttention和SlimAttention等优化技术可降低计算成本,但无法打破理论下限。长上下文的LLM推理成本可能远高于短上下文的SLM。 **重点:**短文本、结构化、对延迟敏感的任务(如呼叫中心、理赔处理、KYC信息提取、知识搜索)适合SLM。如果任务需要处理10万以上的tokens或进行复杂信息整合,应预算使用LLM,并通过缓存和选择性“升级”策略控制成本。 3. 安全性与合规性权衡 两类模型都面临常见风险:提示注入、输出处理不安全、数据泄露及供应链风险。 在解释性方面,所有高风险应用必须具备透明特征、挑战模型、完整决策日志和人工监督。LLM的推理路径记录不能代替SR 11-7或欧盟AI法案所要求的正式验证。 4. 部署模式 金融机构已成功采用三种部署策略: 无论采用哪种模式,均须配套实施内容过滤、PII信息去识别、最小权限连接器、输出验证、红队测试与持续监控,参考NIST AI RMF与OWASP标准。 5. 决策矩阵(快速参考) 评估标准 推荐使用SLM 推荐使用LLM 监管风险 内部支持类、非决策类应用 高风险场景(如信用评分),需完整验证 数据敏感性 本地部署、虚拟私有云、符合PCI/GLBA 外部API,需DLP、加密与数据处理协议支持 成本与延迟 毫秒级响应、高请求频率、成本敏感型应用 可接受秒级延迟、批处理、低请求频率 任务复杂性 信息提取、内容路由、RAG草稿生成辅助 信息整合、模糊输入、长篇文本处理 工程部署 自托管、支持CUDA集成 托管API、管理供应商风险、快速上线 6. 典型应用场景 7….
Dropbox 如何推动 AI 落地:与 CTO Ali Dasdan 的对话
Dropbox 正在将人工智能(AI)从单一工具转变为全流程协作伙伴——不仅帮助工程师自动化重复性任务,还显著降低摩擦、释放专注力,加速内部创新。Dropbox 首席技术官 Ali Dasdan 和工程生产力高级总监 Uma Namasivayam 在本次专访中分享了他们如何通过明确的战略部署与文化建设,在 2025 年实现了 90% 工程师团队的 AI 使用率,领先业内平均水平。 AI 是 Dropbox 工程团队核心生产力工具 Ali Dasdan(CTO)表示:AI 在 Dropbox 不再只是实验工具,而是提升工程效率的核心引擎。它不仅帮助减少会议时间、加快编码节奏,还覆盖了测试生成、调试、代码审查与事故响应等多个开发流程关键环节。 从最初的编码助手起步,Dropbox 正不断扩展 AI 能力至整个软件生命周期,这也是 AI 工具覆盖率能迅速提升至 90% 的关键所在。 从冷淡到广泛使用:AI 落地的转折点 Uma Namasivayam 指出:尽管早在 2023 年末就引入 GitHub Copilot,最初的使用率却始终处于低位,2024 年也只是小部分工程师在使用。 转折点发生在 2025 年初: 通过这些组合拳,AI 工具逐渐成为工程团队的“默认选择”。 衡量成效:数据驱动 + 文化驱动并行 Uma 分享落地经验: 自研 vs 外部:谁该做,谁该买?…
经济学与人工智能齐飞:AGI 和 ASI 到来前夜的财富与分配问题
随着通用人工智能(AGI)、超人工智能(ASI)和通用人形机器人似乎越来越接近现实,是时候认真探讨这场技术革命对经济的冲击了。我们是否将被迫过上无所事事且缺乏意义的“闲暇生活”?是否只有极少数仍有工作的“人类工人”被贬为 API 接口之下的螺丝钉?又或是,我们将迎来“全自动奢侈同性恋太空共产主义”的美好世界? 这篇文章是对五年前“后稀缺社会与后资本主义”相关讨论的续篇,旨在探讨 AI 对经济结构的再塑过程。 凯恩斯的预言快成真了吗? 凯恩斯在 1930 年曾预测,到 2030 年,自动化将使人类的工作时间减少到每周 15 小时。如今看来,这个预言部分成真: 然而凯恩斯也有预言精准之处:资本积累确实极大地推动了 GDP 和生活水平的跃升,甚至可能还低估了人类发明新需求与新消费形式的能力。 AI 是“工具”的放大器,不是直接的接班人 大型语言模型(如 GPT)等被视为“类 AGI”工具,作为人类认知的延伸,显著提升工作效率。但作者指出: 这种少数精英的极高产出能力将放大他们对“有限资源”的竞争,可能进一步加剧稀缺品的价格通胀。 商品类型的四象限模型 文章引入一个核心模型,将商品划分为四种类型: 需求可饱和 需求不可饱和 具竞争性(rivalrous) 房屋、基础食品、带资质教育、监管下托育 土地、医疗、学历教育 非竞争性(non-rivalrous) 显示器、高质量电子产品、汽车、现代食品 软件、航空、推理算力、机器人军队 随着科技进步,我们将越来越多商品从“稀缺”转换为“充裕”,但问题也随之产生——少数超级高效者在竞争“永远稀缺”的领域(如房产、医疗资源)时,可能把其他人“挤出去”。 通胀悖论:我们越富有,有些东西反而更贵 尽管总体财富提升,一些稀缺资源(如住房、医疗、土地)仍持续涨价,其原因包括: 我们可以通过官僚式配额控制、累进税收等方式来“均衡分配”,但这通常会带来普遍贫困而非真正的公平。 案例分析:技术如何打破旧的“稀缺陷阱” ✅ 食品的去稀缺化 历史上,粮食是竞争性 + 可饱和的资源,容易引发饥荒。随着人工化肥与机械农业发展,今天的食品已充足到你我在 Costco 随意购买都不影响彼此。这是科技彻底转变社会结构的经典范例。 ✅ 医疗的技术突围 ✅ 土地与住房的扩容可能性 政策挑战:如何不制造“被抛弃者” 若 AI 超用户阶层财富暴增,社会若无配套措施,有可能制造出**“被技术抛弃者”阶层**。这将导致: 技术跃迁期的正确姿势 为避免“科技进步,民众贫困”的悖论,文章建议:…
AI 就像一位初级开发者,只需要一位带领它的技术负责人
在整个软件开发行业,越来越多的开发者开始使用 AI 编码助手来加快工作节奏,工具如 Junie、GitHub Copilot、ChatGPT 和 Claude 等正在被广泛采用。然而与此同时,我们也看到了许多令人咋舌的“灾难现场”:从潜伏的 bug 溜过代码审查、到因为错误架构决策导致的大规模返工,再到 AI 生成代码引发的安全漏洞成为头条新闻。这些问题很多时候源于初级开发者盲目复制粘贴 AI 的建议,却并不理解代码的含义。 但我们该把责任归咎于谁?是工具本身,用户水平,还是开发流程设计存在更深层的问题?为了寻找答案,作者在多种真实场景下测试了 AI 编码助手,最终得出一个核心结论:AI 就像一个初级开发者,它需要一个经验丰富的技术负责人来带领。 起步阶段:AI 就像靠谱的搜索引擎 作者最初使用 AI 编码助手来解答编程问题,结果令人惊喜。AI 能提供清晰解释与可运行的示例代码,逐渐成为问题排查的首选工具。尤其像 GitHub Copilot 等工具,在自动补全上表现出色,能根据代码上下文完成大量样板逻辑,甚至能识别项目中的编码风格与结构模式。 作者指出,AI 不再是一个新奇的玩具,而成为真正省时省力的开发工具。 初遇 Junie:一场令人抓狂的失败体验 尽管其他开发者高度推荐 Junie,作者一开始对这个“新宠”极为失望。Junie 消耗额度飞快、生成的代码无法通过构建、不断浪费时间,甚至连基础功能都无法完成。作者几乎想直接放弃。 但与此同时,许多可信赖的高级开发者却表示他们使用 Junie 效果非常好。他们不仅能生成清晰、可运行的代码,甚至还能借助 AI 解决复杂问题和调试难题。 问题不在工具,而在用法。 关键认知转折:AI 是初级开发者,不是资深工程师 作者意识到:自己之前像对待一位经验丰富的高级开发者那样对待 AI,期望它理解项目背景、编码风格、业务逻辑甚至架构偏好,却忽略了它实际上缺乏经验与判断力。 举例来说,作者第一次任务是让 AI 重构一批 PHP 的 DTO 类,使用 readonly 和构造函数属性推广(constructor promotion)等新特性。结果 Junie…
上下文工程案例研究:Etsy 专属问答系统探索
本文探讨了在 Etsy 人工智能辅助入职流程中的两个实践案例,重点研究提示词工程(Prompt Engineering)在 Etsy 专属问答系统中的优势与局限,尤其关注大型语言模型(LLM)生成回答的真实性与可靠性。研究发现,要求模型标明具体来源片段是识别潜在幻觉(hallucinations)的一种有效方法。 背景:提示词工程 vs 模型微调 近年来,OpenAI 的 o 系列与 Google 的 Gemini 系列等大型预训练模型彻底改变了自然语言处理(NLP)格局。这些模型以庞大的语料为基础训练,具备丰富的世界知识,并能完成如情感分析、语言翻译、自然语言推理等多种下游任务。 若需提升模型在特定任务上的表现,传统方法是进行微调(fine-tuning),即使用相关标注数据集更新模型某些参数。尽管该方法可靠,但成本高昂,且需大量数据支撑。而近年来迅速兴起的“提示词微调”(prompt-based tuning),则不修改模型参数,通过优化输入提示,使模型更好地完成任务,成本显著降低。 提示词不仅可以是问题,还可以包含背景片段、任务约束,甚至通过模拟身份(如“作为财务专家回答”)引导模型生成更准确答案。提示词工程已逐渐成为大型模型在企业应用中不可或缺的技术手段。 案例一:Etsy 内部 T&E 政策问答系统 场景目标 Etsy 的 T&E(差旅与招待)政策明确、适用范围清晰,常成为新员工频繁提问的领域。因此团队以 T&E 问题为切入点,评估 LLM 是否可以仅通过提示词工程提供可靠回答,避免代价更高的模型微调流程。 系统实现 项目未进行模型微调,而是通过向 LLM 的嵌入空间(embedding space)索引导入所有 T&E 文件内容,并基于向量搜索技术,从这些内容中找出与用户提问最相关的段落作为上下文信息,并构建最终提示词。 测试与结果 通过手动整理的 40 个问答对进行测试: 问:报销流程结束后,公司信用卡的还款由谁负责?正确答案:Etsy 代表员工直接向信用卡公司付款。模型回答:员工需自行偿还信用卡余额。 该回答完全背离实际政策,属严重幻觉。 幻觉应对策略:提示词工程实践 方法一:限制模型过度自信 尝试加入指令,要求模型在不确定时明确表示“我不知道”: 问:若你不确定答案,请回答“我不知道”。报销后,谁负责信用卡还款?答:我不知道。 虽然避免了幻觉,但也未提供有用信息。 方法二:链式思维(Chain-of-thought prompting) 鼓励模型进行推理并说明原因,结果显著改善: 问:若你不确定答案,请回答“我不知道”。谁负责信用卡还款?为什么?答:Etsy…
DeepSeek V3.1 更新发布,R1 标签消失引发 R2 模型命运猜测
在中美 AI 竞争不断升温的背景下,中国人工智能初创公司 DeepSeek 推出了其基础模型 V3 的更新版本——V3.1。但与此同时,原先在其聊天机器人中用于支持推理功能的 R1 模型被悄然移除,这一变化在业内引发了关于下一代 R2 模型是否已经搁置的猜测。 据悉,DeepSeek 于本周二通过一个 WeChat 用户群发布了 V3.1 模型的简要更新通知,称该版本的上下文窗口扩大至 128k,相当于模型在单次对话中可保留大约 300 页文本的信息。这一升级对支持复杂任务和长篇内容处理尤为关键。 然而,该更新并未在 DeepSeek 的公开社交媒体账号(如 X 平台)上公布,更显低调。此外,DeepSeek 还在聊天机器人中的“深度思考”功能页面删除了所有关于 R1 推理模型的描述,这引发外界对于其 R2 模型开发进度的质疑。 从开源先锋到节节败退:DeepSeek 正失去领先优势? DeepSeek 最初由量化交易公司创始人梁文峰创办,作为一项副业在 2023 年末迅速走红。去年 12 月,V3 模型正式亮相,随后在今年 1 月推出的 R1 推理模型更是激发了中国 AI 开源热潮。 但自那以来,该公司便未公布任何新模型的开发时间表,也未透露其研发方向。目前为止,DeepSeek 仍主要提供文本生成能力,尚未向多模态或高级编程领域拓展。 与此同时,大型科技企业如阿里巴巴加快了对开源 AI 模型的布局。其 Qwen 系列模型迅速在企业级市场获得关注与应用,MoonShot AI 的 Kimi-K2-Instruct…
AI 效应:山姆·奥特曼谈 GPT-6,“用户真正想要的是记忆”
在旧金山的一场记者会上,OpenAI 首席执行官山姆·奥特曼(Sam Altman)披露了公司关于下一代人工智能模型 GPT-6 的初步蓝图——尽管 GPT-5 刚刚推出,下一代的开发已如火如荼。他表示,与之前的模型迭代相比,GPT-6 的推出速度将会更快,也将更具个性化与适应性。 在奥特曼看来,真正让 ChatGPT 成为个人化助手的关键,不是更复杂的语言生成能力,而是“记忆(memory)”——即模型必须记得用户是谁,理解其偏好、日常习惯甚至性格特征,从而提供更贴合实际的长期交互体验。 “用户真正想要的是模型能理解他们。”奥特曼表示,“这意味着产品要拥有对用户的长效记忆。” GPT-6:从对话生成迈向“理解你”的 AI 奥特曼透露,OpenAI 正在探索如何让用户定义 ChatGPT 的语气与个性,并通过记忆功能建立起更有温度、具备连续性的人机关系。 OpenAI 还在与心理学家团队密切合作,对用户使用 AI 的情感反馈进行追踪,并研究长期使用是否能提升幸福感。虽然相关数据尚未公开,奥特曼暗示公司可能会在未来披露这类研究成果。 他指出,GPT-6 将不再只是回应用户,而是能主动适应用户,用户甚至可以创建风格各异的专属 AI 助手,定制语气、态度与行为方式。 “思想中产生一个念头,ChatGPT 就能回应” 奥特曼对 AI 与人类交互方式的未来表示乐观。他提及对脑机接口(BCI)技术的浓厚兴趣,认为这将是 OpenAI 可涉足的“邻域技术”之一。 “脑接口是个很酷的想法,”奥特曼说,“未来,或许我们只需‘想到’某件事,ChatGPT 就能立即回应。” 他还提到,公司正在关注包括能源、硬件材料(novel substrates)、机器人和快速建造数据中心等与 AI 相辅相成的技术方向。 面向政府:可自定义、政治中立的 AI 模型 奥特曼表示,未来版本的 ChatGPT 将符合一项由特朗普政府近期签署的行政命令:联邦政府使用的 AI 系统必须具备意识形态中立性和可定制性。 他解释说,OpenAI 将采取中间立场作为默认值,但允许用户向不同方向进行调整: “如果你希望模型非常‘觉醒’(woke),它就可以非常觉醒;如果你希望它偏保守,也应当可以。” 这一表态明确支持“定制化模型立场”,同时也反映出 OpenAI 面对监管和多元用户诉求之间的平衡策略。 GPT-5 升级后“更暖了”…
Meta 再次重组人工智能部门
据知情人士透露,Meta 公司近日在内部宣布了一项关于人工智能部门的新一轮重组,这是首席执行官马克·扎克伯格(Mark Zuckerberg)近几个月内对公司 AI 战略进行的又一次重大调整,反映出公司内部围绕该技术的紧张氛围仍在持续。 消息人士指出,Meta 将其人工智能部门“Meta 超级智能实验室”(Meta Superintelligence Labs)拆分为四个小组,分别专注于以下方向:AI 基础研究、“超级智能”研发、AI 产品开发,以及基础设施(包括数据中心与 AI 硬件)的建设。 据称,此次重组预计将是未来一段时间内的最后一次,目的是加快开发 AI 产品、推进超级智能目标,并提升团队内部的协同效率。该策略也可能引发人事变动,一些 AI 高管预计将离职;公司也在评估是否缩减该部门规模,包括裁撤岗位或将员工转岗至其他部门,目前相关讨论尚未定案。 更值得关注的是,Meta 可能将打破以往坚持使用自研 AI 技术的做法,开始考虑集成第三方 AI 模型。这其中包括基于开源模型进行开发,或直接从其他公司授权使用闭源模型。 扎克伯格押注超级智能,AI 战略持续动荡 在当前 AI 技术竞赛日益激烈的大背景下,扎克伯格表现出前所未有的投入力度——无论是资金,还是组织架构。他在 6 月曾宣布成立一个专门的超级智能实验室,目标是研发超越人脑能力的 AI 系统。当时,Meta 对 AI 独角兽 Scale AI 投资高达 143 亿美元,并任命该公司首席执行官 Alexandr Wang 担任 Meta 的首席 AI 官。 此外,Meta 向业界人才开出九位数的薪酬待遇,试图从 OpenAI 和 Google 等竞争对手手中挖角,点燃了硅谷一场“人才争夺战”。…
MCP(模型上下文协议):是否是 AI 基础设施中缺失的标准?
随着人工智能,尤其是大型语言模型(LLMs)的爆炸式发展,企业运营方式正被彻底改写——无论是客服自动化,还是数据分析增强。然而,企业在将 AI 深度融入核心工作流程的过程中,始终面临一个关键挑战:如何在不依赖定制、碎片化集成的前提下,将这些模型安全且高效地连接到真实世界的数据源。 2024年11月,Anthropic 推出了 模型上下文协议(Model Context Protocol,简称 MCP),作为一种开放标准,旨在成为 AI 代理与外部系统之间的通用桥梁。MCP 常被类比为“AI 领域的 USB-C”,因其即插即用的潜力引起广泛关注。它承诺标准化模型与数据之间的连接,让 LLM 能够按需访问实时且相关的数据资源。本文深入探讨 MCP 的起源、技术原理、优势、局限、现实应用以及未来走向,并引用来自行业领袖及 2025 年中期早期落地实践的见解,尝试回答一个核心问题:MCP 是否真的是 AI 基础设施中缺失的那块拼图? MCP 的起源与演进 MCP 的诞生,源于 AI 系统一个长期存在的局限:难以连接动态、企业级的数据资源。传统 LLM 依赖预训练知识,或使用“检索增强生成”(RAG)技术,将数据嵌入向量数据库中,但这种方法计算密集、易过时。Anthropic 识别到这一瓶颈,于 2024 年以开源形式发布 MCP,旨在建立一个协作式生态体系。 到了 2025 年初,MCP 的采用速度显著提升,尤其是在 OpenAI 等主要竞争者也开始集成 MCP 之后,行业对该协议的共识日益明确。MCP 采用客户端-服务器架构,提供多语言 SDK(包括 Python、TypeScript、Java 和 C#),以加速开发流程。预构建服务器支持连接 Google Drive、Slack、GitHub、PostgreSQL 等常见工具,而像 Block 与 Apollo 等公司也基于…