谷歌今天发布了两款升级版Gemini模型:Gemini-1.5-Pro-002和Gemini-1.5-Flash-002,同时推出了以下更新: 这些新模型是在今年5月Google I/O大会上发布的Gemini 1.5模型的基础上进行了重大改进。开发者可以通过Google AI Studio和Gemini API免费访问这些最新模型,谷歌云的客户和大企业用户也可以在Vertex AI上使用。 总体性能提升,尤其是在数学、长文本处理和视觉任务方面 Gemini 1.5系列模型专为广泛的文本、代码和多模态任务而设计。例如,Gemini模型可以处理1000页的PDF文件、回答包含超过1万行代码的仓库问题、解析时长一小时的视频,并从中生成有用的内容。 这次更新让1.5 Pro和Flash模型在生产环境中的性能更好、速度更快、成本更低。据测试数据显示,1.5 Pro在MMLU-Pro基准测试中的表现提升了约7%,在MATH和HiddenMath竞赛数学题的测试中,两个模型都提升了约20%。在视觉理解和Python代码生成方面,模型的性能也有所提升,幅度在2-7%之间。 模型的响应风格也变得更加简洁,开发者反馈的这一改进意在降低使用成本。例如,在总结、问答和信息提取任务中,输出长度相比之前的模型缩短了5-20%。对于需要长文本输出的聊天类产品,谷歌提供了提示策略指南,帮助用户获得更详细的回应。 Gemini 1.5 Pro模型 Gemini 1.5 Pro的2百万token长上下文窗口和多模态功能让人眼前一亮,从视频理解到处理1000页PDF,仍有许多未被发掘的新用例。今天,谷歌宣布1.5 Pro的输入token价格降低64%,输出token价格降低52%,缓存token价格降低64%,这些调整将于2024年10月1日生效,适用于少于128K token的提示。结合上下文缓存,这大大降低了使用Gemini的成本。 速率限制增加 为了让开发者更轻松地使用Gemini,谷歌将1.5 Flash的付费级速率上限提高到2000 RPM,而1.5 Pro提高到1000 RPM,相比之前分别是1000和360。在接下来的几周内,谷歌还将继续提升Gemini API的速率限制。 更快的输出和更低的延迟 在核心模型改进的同时,谷歌也在过去几周内降低了1.5 Flash的延迟,大幅提升了每秒输出的token数量,解锁了更多的应用场景。 更新的过滤设置 自2023年12月首次发布以来,Gemini系列一直致力于构建一个安全可靠的模型。在今天发布的-002版本中,模型在遵循用户指令的同时进一步平衡了安全性。开发者可以根据自己的需求配置这些安全过滤器,默认情况下,新版本模型将不会自动应用过滤器。 Gemini 1.5 Flash-8B实验性更新 谷歌还发布了“Gemini-1.5-Flash-8B-Exp-0924”实验版本,该版本在文本和多模态任务中的表现有显著提升,现已通过Google AI Studio和Gemini API开放使用。 开发者对1.5 Flash-8B模型的反馈十分积极,谷歌将继续根据这些反馈改进从实验到生产的发布流程。 谷歌对这些更新充满期待,迫不及待想看看大家用新版Gemini模型会开发出什么样的应用!对于Gemini Advanced用户,未来将能访问优化聊天功能的Gemini 1.5 Pro-002版本。
OpenAI于本周二宣布,将为更多付费用户推出“高级语音模式”(AVM)
OpenAI于本周二宣布,将为更多付费用户推出“高级语音模式”(AVM)。这一语音功能能够让ChatGPT的对话更加自然,首先向Plus和Teams套餐的用户开放,而企业版和教育版客户将在下周获得使用权限。 此次更新中,AVM的设计也焕然一新,取代5月展示时的黑色动画点,新的语音功能图标变成了一个蓝色动态球体。当用户的ChatGPT应用中可用AVM时,会在语音图标旁边收到一个弹窗通知。 这周内,所有Plus和Teams用户将在应用中陆续收到该功能更新。为了安抚那些已经等待已久的用户,OpenAI还添加了自定义指令、记忆功能、五种新语音,并且进一步优化了口音处理能力。值得一提的是,AVM现在还能用超过50种语言说“抱歉,来晚了”。 OpenAI官方推特还发布了消息,介绍了五种新语音,分别是Arbor、Maple、Sol、Spruce和Vale。这使得ChatGPT的语音选择增加到9种,几乎赶上了谷歌的Gemini Live系统。所有这些语音名字都取自自然元素,或许是为了体现AVM让互动更加“自然”的理念。 不过,有一个语音明显缺席,那就是曾在春季更新中展示的Sky语音。这个语音因被女演员斯嘉丽·约翰逊指控与她的声音过于相似而引发法律纠纷。约翰逊曾在电影《她》中饰演一位AI系统,因此她对Sky语音提出了异议。虽然OpenAI解释并无意模仿她的声音,但还是迅速下架了Sky语音。 此外,本次更新还没有包括此前展示的视频和屏幕共享功能。这一功能原本可以让GPT-4o同时处理视觉和听觉信息,用户可以实时询问ChatGPT关于眼前纸上的数学题或者电脑屏幕代码的问题。不过,OpenAI目前尚未给出这一多模态功能的正式上线时间。 尽管如此,OpenAI表示,自AVM进行有限的alpha测试以来,功能已经有所改进。除了增强对口音的理解能力外,语音对话的流畅性和响应速度也得到了提升。虽然测试中偶尔仍会出现故障,但OpenAI称这一情况已经有了改善。 此外,AVM还引入了一些定制功能,例如自定义指令,允许用户个性化ChatGPT的响应方式,以及记忆功能,可以让ChatGPT记住之前的对话,方便日后参考。 不过,目前AVM功能尚未在多个地区上线,包括欧盟、英国、瑞士、冰岛、挪威和列支敦士登等。
Sam Altman的博客:The Intelligence Age
未来的几十年里,人类将能够完成许多在祖辈眼中如同魔法般不可思议的事情。 这种现象并非全新的,只不过将以更快的速度发生。随着时间推移,人类的能力大幅提升,我们现在可以做到的事在过去是难以想象的。并不是因为人类的基因发生了改变,而是我们得益于社会的智能基础设施远超个人能力。从某种角度看,社会本身就是一种高级智慧的表现。我们的祖辈以及更早的世代也创造了辉煌成就,为今天的进步打下了坚实的基础。人工智能(AI)将为人类提供工具,解决更多棘手的问题,继续搭建这座进步的脚手架,完成那些我们无法单靠自身解决的难题。进步的故事将延续下去,未来的孩子们将能够完成今天我们无法企及的成就。 虽然不会一夜之间实现,但不久之后,人们将能够与AI协作,达成比单靠个人更大的成就。最终,每个人都可能拥有一支由虚拟专家组成的AI团队,帮助完成几乎任何能够想象的事情。未来的孩子们将拥有虚拟导师,这些导师可以提供个性化的教育,不论是任何学科、任何语言,还是任何学习速度。此外,医疗健康、软件创作等领域的进步也将如此。 凭借这些全新能力,未来人类将实现一种今天难以想象的共同繁荣。虽然财富不一定能带来幸福,毕竟富人也有痛苦,但这无疑会大幅改善全球人民的生活质量。 从历史的角度看,人类经过数千年的科学发现与技术进步,终于能够将沙子熔化,添加杂质,并以极高的精度在微小尺度上排列成计算机芯片,最终创造出能够开发出日益强大的AI系统。这或许是人类历史上最具深远意义的成就之一。未来几千天内(也许更长时间)可能会诞生超级智能,但毫无疑问,人类正朝着这个方向前进。 这一切的关键可以总结为三个字:深度学习。 再详细一点:深度学习有效果,且随着规模扩大表现更佳,于是人类投入了更多资源。这就是故事的核心。人类找到了一个能够学习任何数据分布的算法(或者说,能够掌握产生这些数据分布的“规则”),只要有足够的计算能力和数据,AI在帮助解决复杂问题时表现就越好。这一突破的影响难以完全理解,但其深远性毋庸置疑。 虽然还有很多细节需要解决,但只要不被具体问题困扰,深度学习的成功是显而易见的。AI将随着规模的增长变得更强大,并对人类生活产生深远的改善。 未来,AI模型将成为自主的个人助手,帮助人类完成特定任务,比如协调医疗等服务。更长远来看,AI将变得如此强大,以至于它们能帮助人类开发下一代技术,并推动科学领域的全面进步。 从石器时代、农业时代到工业时代,科技推动了人类进步。如今,计算能力、能源和人类意志正铺就通往“智能时代”的道路。 为了让AI惠及更多人类,我们需要降低计算成本,使其更加普及,这需要大量的能源和芯片。如果基础设施建设不足,AI可能会成为一种稀缺资源,甚至成为战争的导火索,只为富人服务。 在人类迈入“智能时代”的关键时刻,需要谨慎而坚定地采取行动。尽管挑战重重,AI的巨大潜力让我们有责任去解决眼前的风险。未来将充满光明,任何对它的描述都显得苍白无力。智能时代的标志性特征之一就是大规模的繁荣。 尽管这些变革将逐步发生,但那些曾经看似不可思议的壮举——解决气候问题、建立太空殖民地、揭开物理学的所有奥秘——将成为常态。借助近乎无限的智能和能源,人类将拥有实现伟大想法的能力,能完成前所未有的壮举。 当然,和其他技术一样,AI的进步也会带来负面影响。我们需要提前规划,最大化AI的益处,尽量减少其危害。比如,未来几年AI可能会对劳动力市场产生重大影响,虽然变化的速度可能比预期要慢,但不必担心工作消失。即便未来的工作形式与今天不同,人类总会找到发挥自己创造力和为社会作贡献的方式。AI将大幅增强人类的能力,社会将迎来新的扩展期,重新专注于共同进步。 回看历史,许多我们今天所做的事情在几百年前可能显得无比琐碎,但没有人怀念点灯工的时代。如果一位点灯工看到今天的世界,他会觉得这般繁荣是无法想象的。而如果我们能快进到一百年后,我们眼中的繁荣也将变得同样难以想象。
Qwen2.5:开源基础模型的狂欢盛宴!
自从Qwen2发布后的三个月内,众多开发者基于Qwen2语言模型构建了新模型,并提供了宝贵的反馈。在此期间,Qwen团队专注于打造更智能、更具知识性的语言模型。今天,全新Qwen系列的最新成员——Qwen2.5,隆重登场!官方宣布了有史以来规模最大的开源发布之一!让我们开始狂欢吧! https://github.com/QwenLM/Qwen2.5 此次发布的重磅内容包括通用大模型Qwen2.5,以及专注于编程的Qwen2.5-Coder和数学的Qwen2.5-Math。所有开源权重模型均为稠密、仅解码语言模型,涵盖多种尺寸,如下所示: 除了3B和72B版本,所有模型都采用Apache 2.0许可协议,相关文件可在Hugging Face的对应库中找到。此外,用户还可以通过Model Studio体验Qwen-Plus和Qwen-Turbo等旗舰语言模型的API服务。Qwen团队还开源了Qwen2-VL-72B,与上月发布的版本相比进行了性能优化。 Qwen2.5的所有语言模型都经过最新大规模数据集的预训练,数据量高达18万亿tokens。与Qwen2相比,Qwen2.5在知识储备(MMLU: 85+)、编程能力(HumanEval 85+)和数学能力(MATH 80+)方面有显著提升。此外,模型在指令遵循、长文本生成(超过8K tokens)、结构化数据理解(例如表格)、结构化输出生成(特别是JSON格式)等方面也有了巨大进步。Qwen2.5还支持多达128K tokens的处理能力,支持生成长达8K tokens的文本,并保留了对包括中文、英语、法语等29种语言的多语种支持。 Qwen2.5-Coder和Qwen2.5-Math这两款专家模型相比其前辈也有了显著的增强。Qwen2.5-Coder经过了5.5万亿代码相关数据的训练,即使是较小的编程专用模型,也在代码评测中展现出与更大语言模型竞争的能力。Qwen2.5-Math支持中文和英语,并引入了连锁思维(CoT)、程序思维(PoT)和工具整合推理(TIR)等多种推理方式。 Qwen2.5系列在不同的尺寸模型中展现了强大的性能,尤其是Qwen2.5-72B,它在多个指令调整基准上超越了同类的开源大模型如Llama-3.1-70B和Mistral-Large-V2。而且,即便是Qwen2.5-3B这样的较小模型,也在知识密度和性能方面大放异彩,展示了其高效的能力。 此外,Qwen团队还在后期训练方法上做了四大更新,包括支持生成长达8K tokens的文本、结构化数据理解、生成结构化输出(如JSON格式),以及对多种系统提示的适应性提升,使得角色扮演和条件设置更加灵活。对编程领域的用户来说,Qwen2.5-Coder展现了卓越的性能,虽然模型参数较小,但在多种编程语言和任务中表现优异,堪称个人编程助手的最佳选择。 至于数学领域,Qwen2.5-Math相较于Qwen2-Math预训练了更大规模的数学数据,并加强了推理能力,甚至其1.5B的小型号模型也能在数学任务中与大语言模型竞争。 总之,Qwen2.5系列在各个领域都取得了突破性进展,用户可以通过Hugging Face、vllm等多种途径便捷使用这些模型。Qwen2.5还支持工具调用功能,让用户在编程、数学等任务中如虎添翼。通过这些强大的模型,Qwen团队期待看到更多惊人的应用和创新。 准备好开启无限可能的世界吧!
WordPress联合创始人称WP Engine为“WordPress的癌症”
WordPress联合创始人兼Automattic CEO Matt Mullenweg近日对竞争对手WP Engine发起了严厉批评,称其为“WordPress的癌症”。Mullenweg指责该公司自2010年以来一直从开源WordPress项目中牟利,但对项目的回馈却很少,并且还禁用了许多使WordPress强大功能的关键特性。 作为背景,WordPress占据了超过40%的网络市场份额,任何个人或公司都可以使用开源项目自行运营网站。近年来,一些公司借此提供托管服务和技术支持,其中包括Mullenweg于2005年创立的Automattic以及托管服务提供商WP Engine。WP Engine自2010年成立以来,已筹集了近3亿美元资金,其中大部分来自私募股权公司Silver Lake在2018年的2.5亿美元投资。 在今年于俄勒冈州波特兰市举行的WordCamp US 2024会议上,Mullenweg毫不留情地批评了WP Engine,指出Automattic每周贡献了3,900小时支持WordPress的增长,而WP Engine仅贡献了40小时。他提到,尽管这些数字只是“参考值”,但这两家公司规模相当,收入都在5亿美元左右,这种差距依然引人注目。 Mullenweg过去也曾对其他知名的网络托管公司提出类似批评,例如GoDaddy,他称其为“寄生公司”,并指出其对WordPress的未来构成了“生存威胁”。这次他将矛头指向了WP Engine的主要投资者Silver Lake,认为这家拥有1,020亿美元管理资产的私募公司只关心资本回报,而不关心开源理想。 Mullenweg鼓励WordPress社区用钱包投票,支持那些会滋养WordPress生态系统的公司,而不是从中榨取每一分价值的公司。他还建议现有的WP Engine用户在合同到期时考虑转投其他托管商,如Hostinger、Bluehost Cloud或Pressable。 在后续的博客文章中,Mullenweg重申了他的观点,称WP Engine正在利用WordPress项目与其商业服务之间的混淆牟利,并批评该公司禁用WordPress核心功能之一——内容修订管理功能,理由是为了节省存储成本。他认为,这破坏了WordPress管理和保护用户内容的核心承诺。
高通(Qualcomm)向竞争对手英特尔(Intel)提出收购建议
近日,芯片巨头高通(Qualcomm)向竞争对手英特尔(Intel)提出收购建议,这将成为近年来最大、最具影响力的交易之一。英特尔的市值大约为900亿美元,而此次收购可能会引发反垄断审查,尽管这也可能被视为增强美国芯片竞争力的机会。知情人士警告称,该交易尚不确定。即使英特尔愿意接受,高通可能需要出售部分资产来完成交易。 英特尔曾是全球最有价值的芯片公司,但今年以来,其股价已下跌约60%。英特尔的市值曾在2020年超过2900亿美元。高通的市值约为1850亿美元,尽管其股票因传闻下跌3%,但今年以来已上涨约17%。 高通是智能手机芯片的主要供应商,尤其是在通信芯片领域,是苹果iPhone的关键供应商之一。若此次收购成功,高通将大幅扩展业务范围,将英特尔的个人电脑和服务器芯片与其手机芯片业务结合起来。 尽管高通和英特尔都希望在人工智能领域分得一杯羹,但两者都被AI芯片巨头英伟达(Nvidia)所掩盖。英特尔计划通过其工厂代工芯片,并可能获得高达85亿美元的政府补贴支持,而高通之前曾计划让英特尔代工芯片,但因技术问题中止。 英特尔的首席执行官Pat Gelsinger在过去三年中一直试图扭转局面,但尚未取得显著成效。今年第二季度,英特尔报告亏损16亿美元,去年同期则为盈利15亿美元。最近,英特尔宣布将在全球范围内裁员,并暂停派发股息,同时采取多项成本削减措施。 如果此次收购完成,它将成为史上最大规模的科技并购交易,超过微软收购动视暴雪的690亿美元交易。这笔交易不仅会改变芯片行业格局,还可能对全球半导体市场产生深远影响。
大型语言模型(LLM)将彻底改变软件工程师编写代码的方式
大型语言模型(LLM)将彻底改变软件工程师编写代码的方式。上周末,有人利用基于LLM的集成开发环境(IDE)Cursor构建了一个副项目,整个过程中没有亲自编写一行代码。这个项目通常需要一周时间完成,但现在只花了一个周末(没有赞助)。 尽管LLM并不完美,但它们非常擅长处理编程中那些重复、乏味的部分。 新的工作方式 当你可以通过一个命令生成整个功能代码时,开发流程发生了有趣的变化。抛弃现有代码并通过调整提示词重新生成代码,效率远高于调试已损坏的代码。这种方法加快了开发速度,但也导致对代码的理解较少。有几次,代码在局部看来合理,但从全局看问题明显,例如,一个简单的错误是同时存在两个相互冲突的数据模型。如果自己手写代码,显然可以避免这种设计失误。 此外,LLM还让打印调试变得比使用调试器更好。过去,调试器可以快速检查程序状态,但现在无需手动编写打印语句,LLM可以轻松通过一个提示插入高质量的打印语句,并且清理起来也一样简单。 再见,Google 大多数情况下,LLM提供的答案比Google更直接,不需要阅读冗长的教程或Stack Overflow的回答。以下是两次必须使用Google的例子: 学习如何使用LLM 要充分利用LLM,需要知道如何有效地提出问题。经过几天的使用,可以逐渐了解其擅长和不擅长的领域: 用户的首选模型是Claude-3.5-sonnet,运行快速且大部分时候效果不错。当Claude遇到困难时,用户会切换到更强大的OpenAI的O1-preview模型,虽然效果更好,但速度较慢且成本较高。理想情况下,未来的LLM工具能够根据任务难度自动选择模型。 现阶段的关键技能 尽管LLM让开发变得更快,但仍存在许多限制,处理这些限制的关键技能包括: 值得注意的是,LLM在处理简单的全栈应用时表现优异,因为这类项目有许多公开的训练数据样本。但对于那些具有前沿性或私有性代码的行业应用,LLM的效果将大打折扣。 LLM的代码生成能力可以替代编写简单且范围明确的代码,但这并不意味着AI会取代开发者的工作。经过一段时间的使用,你会发现AI距离真正接管编程任务还有很长的路要走。
Jony Ive确认他正在与OpenAI的CEO Sam Altman合作开发一款AI硬件产品
Jony Ive确认他正在与OpenAI的CEO Sam Altman合作开发一款AI硬件产品。根据《纽约时报》对Ive的报道,这一消息的公布距离去年两人可能合作的传闻已有近一年。虽然目前关于该项目的细节还不多,但已有一些重要的线索透露出来。 据报道,Ive通过Airbnb的CEO Brian Chesky认识了Altman,并且这个项目由Ive与Laurene Powell Jobs的Emerson Collective共同资助。尽管没有提到去年传闻中的软银CEO孙正义的10亿美元投资,但报道称该项目有望在今年年底前筹集到10亿美元的资金。 该项目目前只有10名员工,但团队中包括与Ive共同打造iPhone的两位核心人物:Tang Tan和Evans Hankey。Ive的公司LoveFrom正负责该设备的设计,团队目前在旧金山一栋32,000平方英尺的办公楼内工作,这座办公楼是Ive耗资9000万美元在同一个街区购置的一部分。 至于设备本身,报道称Ive和Altman讨论了生成式AI如何让一种全新的计算设备成为可能,因为这种技术能够处理比传统软件更复杂的请求。去年有传闻称,这款设备的灵感源于触屏技术和最初的iPhone设计。然而,目前关于这款AI硬件的具体细节和上市时间尚未确定。LoveFrom联合创始人Marc Newson也表示,产品的形态和发布时间仍在探索中。
Meta面临着一个赢得AI硬件竞赛的重大机遇
AI可穿戴设备今年表现相当糟糕。几个月前,科技界还坚定地认为AI硬件是下一波技术革命的核心。未来感十足的演示和时尚硬件给人们带来了无限期待,尤其是Humane AI Pin和Rabbit R1这两款产品。它们曾承诺带来宏大的未来,但最终都未能兑现。 这样的故事在科技领域并不新鲜。十年前,智能眼镜和增强现实头显也经历过类似的炒作周期。Google Glass曾宣称可以为现实世界叠加有用的信息,但最终未能成功。自那之后,Magic Leap、North的Focals、微软的HoloLens、苹果的Vision Pro,以及最新的Snapchat Spectacles都试图延续这一愿景,但商业上无一成功。 有意思的是,如今最有可能实现AI可穿戴设备成功的,竟然是Ray-Ban Meta智能眼镜。 AI只是Ray-Ban Meta智能眼镜的一个功能,这正是其成功的关键 Ray-Ban Meta智能眼镜出人意料地比其他AI可穿戴设备和智能眼镜更加成功。部分原因在于其前身,Ray-Ban Stories彻底失败。此外,它们并没有带来什么新创意。Bose早就推出了时尚的音频眼镜,但最终也关停了该业务。Snap的Spectacles也曾尝试通过短视频社交功能吸引用户,但显然这也没能奏效。从纸面上看,Ray-Ban Meta智能眼镜并没有令人信服的理由能够大获成功。 然而,它确实做到了,甚至超出了Meta自己的预期。究其原因,Meta终于在设计和执行上找到了平衡。相比Stories版本,Meta这次提供了更多不同的款式和颜色,几乎保证用户能找到一副适合自己风格的眼镜。Meta深谙用户并不想看起来像科幻电影里的人物,而是希望看起来符合当下的潮流。 价格、功能与设计的平衡 Ray-Ban Meta智能眼镜售价为299美元,虽然不便宜,但相比苹果3500美元的Vision Pro或Humane 699美元的AI Pin,这已经算是相当实惠了。音质出色,通话质量也意外地好,鼻梁处的麦克风位置设计合理。与Stories和Snap早期的Spectacles不同,视频和照片质量足以让用户自信地发布到Instagram上——尤其是在当下,Instagram Reels和TikTok上的POV风格视频很受欢迎。 Meta的AI虽然有些笨拙、不够优雅,但它的确可以自然地在设备上运行。用户可以用它来识别遇到的物体,或获取关于某地标的更多信息。还可以用Meta AI写Instagram的搞笑标题或翻译菜单。甚至可以进行视频通话,让朋友看到用户所看到的内容。这些用例与设备的实际使用方式相契合。 尽管这些功能在实践中有些不稳定,AI生成的Instagram标题并不总是好,且在嘈杂环境中很难听清指令,但它确实能用。更重要的是,即便AI偶尔出问题,这款眼镜依然可以很好地完成其他任务,而不像Rabbit R1那样过热或像Humane Pin那样有延迟。 Meta在智能眼镜上的优势与未来挑战 这款设备已经能够轻松融入人们的生活。用户不需要等待未来的软件更新,它并不是一个在寻找问题的解决方案。而这,正是Ray-Ban智能眼镜有望在AI领域取得成功的原因。因为AI已经成为它的一个功能,而不是它的全部卖点。 然而,未来的压力仍在。Meta的目标是通过让人们适应简单的智能眼镜,最终让用户对AI和AR技术更加接受。如果要实现这一目标,AI必须从“有时方便”变成“生活必需品”,让人们感到佩戴智能眼镜的生活比不戴时更加轻松。目前,这些AI功能大多还只是些派对小把戏。 尽管挑战巨大,但Meta似乎最有可能成功。如今它已经掌握了硬件设计的基本思路,接下来的改进(如更好的电池和更轻的设计)都是可以实现的。剩下的就是看看Meta能否兑现其他承诺了。 Meta将在下周的Meta Connect活动中证明自己,这也是一次关键时刻。Humane的销量增长超过预期,Rabbit则被批评为几乎是骗局。专家们对苹果下一代iPhone 16的AI“超级周期”并不看好。如果Meta能在此时获胜,不仅能巩固其领先地位,还能为AI硬件的未来保留一丝希望。
高通近日与英特尔接洽,讨论收购事宜
据《华尔街日报》报道,高通近日与英特尔接洽,讨论收购事宜,这一潜在交易若达成,将成为芯片行业史上最大的交易。消息传出后,英特尔股价大涨,涨幅高达9.5%,达到23.14美元,扭转了当天早些时候的跌势。今年以来,英特尔股价已下跌58%。 据消息人士透露,双方的讨论是在最近几天进行的,但英特尔和高通的代表均拒绝对此置评。英特尔,这家曾是全球最大芯片制造商的公司,近年来面临销售额下滑和亏损增加的挑战。该公司的市值目前不到1000亿美元,大约是高通的一半。然而,若高通收购英特尔,这将是半导体市场有史以来最大的一笔交易,或将彻底改变行业格局。 与此同时,高通的股价下跌了5.5%,反映了投资者对该交易可能带来的风险的担忧。高通总部位于圣迭戈,是全球最大的智能手机处理器制造商,该公司曾在六年前卷入一场与博通的激烈收购战,最终因特朗普总统以国家安全为由阻止了交易,博通才放弃收购。 本周,英特尔宣布了一系列改革措施,旨在扭转业务困境。这些措施包括与亚马逊达成数十亿美元的定制人工智能芯片协议,以及将英特尔亏损的制造业务转变为全资子公司。此外,英特尔还计划出售其可编程芯片部门Altera,买家可能是Marvell科技公司。 这场潜在的收购交易对半导体行业的未来影响深远,也引发了市场广泛关注。