2023年,Selipsky的主题演讲几乎完全围绕人工智能展开。AWS CEO最重要的宣布之一是推出了名为Amazon Q的新AI技术。这款AI并不是OpenAI的Q*,也和《星际迷航》中那个多维存在Q无关,更不是QAnon。这是一个专为AWS云服务设计的生成式AI工具,能够在开发、分析和运营中实现自动化。 Amazon Bedrock服务再升级 在演讲中,Selipsky还介绍了多项现已全面开放的Amazon Bedrock生成式AI服务新功能。这些功能包括可定制化模型、新的检索增强生成(RAG)功能以及持续预训练功能。这些改进让企业能够更好地根据自己的需求和数据优化生成式AI模型。 为了确保AI的使用安全,AWS还推出了Bedrock Guardrails,客户可以通过设置规则避免模型触及某些敏感话题或生成不当回应。 Selipsky表示:“通过Bedrock,客户可以完成如预订旅行、处理保险理赔、部署软件等复杂任务。为了支持这些功能,我们早前推出的Bedrock智能代理今天已全面开放。” Amazon Q:企业AI助手的全新定义 Amazon Q的推出预示着AWS正在全力进军企业AI助手领域。与微软的Copilot以及谷歌的Duet AI类似,Amazon Q被深度整合到AWS的多个云服务中,包括Amazon CodeWhisper和Amazon Connect。 Selipsky透露,Q不仅是开发者的得力助手,还能通过与应用和业务工具的整合为客户服务中心等领域带来显著提升。 AWS与Nvidia联手,又推自家芯片 演讲中,Nvidia CEO黄仁勋登台,与Selipsky一起介绍两家公司在AI领域的合作。不久后,Selipsky宣布AWS推出竞争性AI训练芯片Tranium 3,展示了AWS对AI硬件和基础设施的强大支持能力。 他说:“无论是构建自己的模型,还是直接使用服务,AWS始终为客户提供最先进的芯片、虚拟化技术以及工具,帮助他们完成构建。” AI服务未来展望 AWS通过Amazon Q和Amazon Bedrock等服务,正在覆盖人工智能生命周期的每个环节。从基础设施到模型训练,再到具体应用,Selipsky强调,AWS正以一种不同的方式重新定义生成式AI的使用方式,让企业更轻松地从中获益。 这场演讲不仅展示了AWS的技术进步,也预示着AI技术在云计算领域将迎来更广泛的应用。
Author: aitrendtrackers@rengongzhineng.io
英特尔CEO退休
英特尔近日宣布,CEO帕特·基尔辛格(Pat Gelsinger)已于12月1日正式退休,同时也从公司董事会辞职。公司高管大卫·津斯纳(David Zinsner)和米歇尔·约翰斯顿·霍尔索斯(Michelle Johnston Holthaus)被任命为临时联席CEO。津斯纳目前担任英特尔首席财务官,而霍尔索斯是英特尔客户端计算事业部的总经理。 值得注意的是,霍尔索斯还被任命为全新设立的“英特尔产品”部门的CEO,负责从消费者市场到数据中心、AI、网络及边缘业务的广泛运营。与此同时,董事会独立主席弗兰克·耶里(Frank Yeary)将在过渡期担任临时执行主席。英特尔表示,其芯片设计和制造部门——英特尔代工服务(Intel Foundry)的领导层将保持不变,公司董事会也已成立一个专门委员会,寻找基尔辛格的永久接任者。 基尔辛格在声明中感慨道:“能够领导英特尔是我一生的荣幸,这里的同事是业内最优秀和最聪明的一群人。虽然今天有些伤感,但英特尔始终是我职业生涯的重要部分。过去的一年充满挑战,但我们做出了一些艰难却必要的决定,为适应当前的市场动态打下基础。对能与英特尔大家庭的全球同仁共事,我心怀感激。” 不过,据彭博社报道,基尔辛格的离职并非完全自愿,公司董事会给了他退休或被解雇的选择。 基尔辛格18岁便加入英特尔,成为了公司历史上最年轻的副总裁。他在职业生涯中主导了诸多关键技术开发,包括第四代80486处理器、Wi-Fi、USB,以及英特尔Core和Xeon芯片产品线。在2009年离开英特尔之前,他还曾担任英特尔首席技术官。 他于2021年回归英特尔,接任CEO一职,并推出了一项雄心勃勃的五年计划,试图通过在美国及海外建设大型芯片制造工厂来与台积电和三星等巨头竞争。然而,这段任期却充满波折,他的一些决策引发了争议。 例如,基尔辛格公开提及台海局势敏感问题,这使得英特尔与台积电的合作关系受损,错失重要折扣。此外,他对英特尔AI芯片(如Gaudi)的前景过于乐观,但未能有效挑战Nvidia等行业领先者。他推动的代工业务转型也遭遇了技术障碍。 市场表现同样不尽如人意。英特尔2023年的收入下滑至540亿美元,比基尔辛格接任时减少了三分之一。公司采取了削减分红、裁员1.5万人、推迟多个芯片工厂建设等措施,试图削减成本。但当年10月,公司报告了创纪录的166亿美元季度亏损,全年预计亏损达到36.8亿美元,这是英特尔自1986年以来的首次年度净亏损。 尽管如此,英特尔董事会对新管理层表示信心。临时执行主席耶里在新闻稿中表示:“在大卫和米歇尔的领导下,公司将继续加速推进关键优先事项:简化和优化产品组合,提升制造和代工能力,并优化运营成本结构。” 消息公布后,英特尔股价小幅上涨约2.66%。然而,这家半导体巨头的未来仍面临诸多挑战,能否重塑辉煌仍有待观察。
阿里巴巴正式发布了全新大型语言模型Marco-o1
阿里巴巴正式发布了全新大型语言模型Marco-o1 (https://huggingface.co/AIDC-AI/Marco-o1),旨在应对传统和开放性问题解决任务。这款由MarcoPolo团队研发的模型,标志着AI在复杂推理挑战上的又一次飞跃,特别是在数学、物理、编程等领域,以及标准不明确的情况下表现尤为突出。 Marco-o1在OpenAI o1模型推理技术的基础上,引入了多项先进技术,包括链式思维(CoT)微调、蒙特卡洛树搜索(MCTS)和创新的反思机制。这些技术的结合大幅提升了模型在多个领域的推理和解决问题能力。 数据训练与模型表现 开发团队采用多数据集精细微调策略,包括经过筛选的Open-O1 CoT数据集、合成的Marco-o1 CoT数据集,以及定制的Marco Instruction数据集。训练语料总计超过6万条高质量样本。 在测试中,Marco-o1在多语言应用中展现了惊人的表现。例如,在英文MGSM数据集上的准确率提升了6.17%,中文对应数据集的表现也提高了5.60%。在翻译任务中,尤其是在处理俚语表达和文化细节时,表现尤为卓越。 创新特色:多层次推理与自我反思 Marco-o1的一大创新在于将不同层次的操作粒度引入到MCTS框架中。这种方法允许模型以不同的细节层次进行推理探索,从宏观步骤到32或64个词汇粒度的“微步”,均能灵活适应。同时,反思机制的加入使得模型能够自我评估并调整推理路径,在复杂问题解决上显著提高了准确率。 实验表明,所有整合MCTS的版本都优于基础的Marco-o1-CoT模型。研究团队还在不同的操作粒度上发现了有趣的规律,但也指出,目前的最优策略仍需进一步研究以及更精确的奖励模型支持。 持续优化与未来计划 尽管Marco-o1表现抢眼,开发团队坦言目前的模型距离真正“完善”的o1仍有距离。此次发布被定位为“持续改进中的阶段性成果”,而非最终成品。 未来,阿里巴巴计划引入奖励模型,包括结果奖励建模(ORM)和过程奖励建模(PRM),以进一步强化模型决策能力。同时,团队也在探索强化学习技术,以进一步优化问题解决能力。 公开资源与社区支持 为了支持研究社区,Marco-o1模型及其相关数据集已通过阿里巴巴的GitHub库对外开放,提供了详细的文档和实现指南。发布内容包括安装教程以及通过FastAPI实现的直接调用与部署示例脚本。 随着技术的不断进步,Marco-o1无疑为人工智能的推理和问题解决能力树立了新的标杆,也为研究和应用领域带来了更多可能性。
Elon Musk 第四次将矛头指向OpenAI
埃隆·马斯克再次将矛头指向OpenAI,这已经是他第四次试图用法律手段扳倒这家科技巨头了。 这次,马斯克要求法院阻止OpenAI从非营利机构转变为营利性企业——这是OpenAI为了安抚投资者在9月宣布的一项举措。据马斯克的起诉书,这种转型涉嫌违反反垄断法。 诉讼声称,OpenAI不仅侵犯了马斯克“对这个慈善组织的基础性贡献”,还通过与微软的“独家合作”来争夺市场主导地位,同时“错误地获取了合作关系中的敏感商业信息”。 文件中还指出,OpenAI的首席执行官萨姆·阿尔特曼通过与Stripe、Reddit和Helion Energy等公司签订合同进行“肆无忌惮的自我交易”,而这些公司都与阿尔特曼存在投资利益相关。 此外,马斯克还指控OpenAI阻止投资者为其他人工智能公司(尤其是他的初创公司xAI)提供资金。他特别提到,有“至少一位重要投资者”曾参与xAI的融资轮,但在与OpenAI确认合作后,拒绝继续为xAI投资。 面对这场诉讼,OpenAI的回应堪称火药味十足:“这是埃隆第四次提出的无稽之谈,依然是在重复毫无根据的指控,完全没有任何实质意义。”
亚马逊自研大语言模型 Olympus 即将亮相,或将在 LLM 竞赛中掀起新波澜
就在去年此时,有消息称亚马逊正在研发其首款旗舰大语言模型(LLM),代号为 Olympus。而如今,这款备受期待的产品即将迎来正式发布。据悉,亚马逊将在下周的 AWS 年度大会 re:Invent 上首次展示 Olympus。 不止文本与图像:Olympus 的独特能力 内部人士透露,Olympus 将具备与 Google、OpenAI 和微软等现有 LLM 相媲美的多模态功能,能够处理和理解文本与图像。然而,它的亮点在于对视频和图像的精准搜索能力。通过简单的文本指令,Olympus 据称可以在视频或图像中找到特定的视觉片段。 举个例子,在观看篮球比赛时,用户只需输入“找到制胜一球”,Olympus 就能定位并提取出获胜关键时刻的镜头。这种能力不仅增强了用户与内容的互动方式,还为多模态 AI 的应用场景开辟了更多可能性。 迈入 LLM 赛道,减少对第三方依赖 Olympus 的发布标志着亚马逊正式加入 LLM 竞赛,同时也将大幅减少其对第三方 LLM 的依赖。目前,亚马逊对 Anthropic 投资了 80 亿美元,而 Olympus 的推出或许是对其生态战略的一次重大补充。 从文本到图像,再到视频理解,亚马逊的 Olympus 很可能成为 LLM 领域的新一匹黑马。更多详情,敬请期待 re:Invent 上的正式揭幕!
Nvidia 发布 Fugatto 模型
生成音频的瑞士军刀诞生!一款能用文本控制声音输出的AI来了 一支生成式AI研究团队打造了一款“音频瑞士军刀”,让用户仅凭文字描述就能掌控声音输出。 不同于只会作曲或变声的AI模型,这款新工具堪称音频领域的“全能选手”。 这款产品被命名为 Fugatto(全称为 Foundational Generative Audio Transformer Opus 1),能够通过文本提示或音频文件生成、转换任何形式的音乐、声音和人声。例如,它能根据文字提示生成音乐片段,从现有歌曲中删除或添加乐器,改变声音的口音或情感,甚至创造出从未听过的全新声音! “这个工具简直是黑科技” 获得多白金销量的制作人兼词曲作者 Ido Zmishlany 表示:“声音是我的灵感来源,它驱动我创作音乐。现在,在录音棚中实时生成全新声音的能力简直让人兴奋。” 音频领域的一次革命 Fugatto 背后的团队希望让 AI 模型像人类一样“理解和生成声音”。据 NVIDIA 的音频应用研究经理兼 Fugatto 项目负责人 Rafael Valle 透露,这款模型支持多种音频生成与转换任务,是首个展现“涌现能力”的基础生成式 AI 模型。它能结合多种自由形式的指令,完成高度复杂的任务。 Valle 进一步解释:“Fugatto 是我们迈向音频合成和转换未来的重要一步,最终目标是实现无监督的多任务学习。” 用途广泛:从音乐创作到游戏开发 Fugatto 的潜力无处不在: 创意无限:从“喵喵的萨克斯”到“吠叫的喇叭” Fugatto 还能生成闻所未闻的声音,例如让喇叭学狗叫或萨克斯风模仿猫叫。无论用户如何描述,这款模型都能把创意变为现实。 此外,只需少量歌唱数据,Fugatto 甚至可以生成高质量的歌声。其结合多种指令的能力也令人惊艳,例如用文本指令生成“带法国口音、略带悲伤的语音”。 艺术家般的控制力 用户还能通过 Fugatto 的独特功能对声音进行精细调整。例如,它能生成雷雨从远到近的渐变效果,再慢慢演变为鸟鸣的黎明场景。 技术内幕:模型如何诞生? Fugatto 的训练基于 NVIDIA 的 DGX 系统,采用 2.5 亿参数规模。团队来自全球多个国家,通过多文化、多语言的合作大幅提升了模型的表现力。 在一年的研发中,团队设计了一套全新的数据生成和指令策略,不仅拓展了模型的能力,还让它能在没有额外数据的情况下完成新任务。…
Musk加剧与萨姆·奥特曼的对决,xAI即将推出ChatGPT竞争产品
消息称,埃隆·马斯克的人工智能公司xAI计划在下个月推出一款类似ChatGPT的聊天机器人应用。根据《华尔街日报》周三的报道,这款应用最早可能在12月上线。这一动态表明,马斯克及其xAI团队有意与OpenAI正面交锋。 据报道,这款聊天机器人应用将有助于xAI扩大其技术覆盖范围,并吸引更广泛的用户群体。目前,xAI尚未就此消息回应《商业内幕》的置评请求。 马斯克曾是OpenAI的联合创始人,但他在2018年退出了公司。近年来,他多次对OpenAI及其CEO萨姆·奥特曼发起法律诉讼,指控自己在创立该公司的过程中遭受“欺骗”。如今,他正通过xAI挑战这个他曾参与创立的人工智能巨头。 去年,马斯克创立了xAI,最初为他的其他业务提供服务,例如为Starlink提供AI客户支持,以及为X(前身为Twitter)的付费用户推出了Grok聊天机器人。如果此次推出的聊天机器人应用面向普通消费者,这将是xAI首次直接进军消费级市场。 根据《华尔街日报》本月早些时候的报道,xAI的估值已达到500亿美元,超过了马斯克当年以440亿美元收购X的价格。然而,这一数字仍远低于OpenAI目前的估值。后者在10月的最新一轮融资中估值达1570亿美元,同时在收入上也大幅领先。报道称,OpenAI预计在2024年实现37亿美元收入,而xAI目前的年收入预计仅为1亿美元左右。 值得注意的是,据《金融时报》报道,为弥补收购X带来的投资损失,马斯克将xAI四分之一的股份分配给了参与Twitter收购的投资者。这一举措或许意在安抚这些投资者,并进一步推动xAI的发展壮大。 对于人工智能领域的这场竞赛,马斯克显然不愿落后,他的每一步动作都在加剧与奥特曼及其OpenAI的竞争。
Microsoft LazyGraphRAG-平价版GraphRAG:全场景应用的最佳选择
GraphRAG项目 https://www.microsoft.com/en-us/research/project/graphrag/GraphRAG项目旨在通过挖掘非结构化文本中的隐性关系,扩展AI系统对私有数据集进行回答的能力。与传统的向量RAG(或“语义搜索”)相比,GraphRAG的主要优势在于其可以解答全局性问题,例如“数据中的主要主题是什么?”或“某主题的关键影响有哪些?”。而向量RAG更适合解答局部性问题,例如“谁”、“什么”、“何时”、“何地”等具体问题。 重磅发布:LazyGraphRAG近期的技术分享中,介绍了一种革命性的“LazyGraphRAG”方法。此方法无需预先对源数据进行总结,完全避免了昂贵的索引成本,对预算有限的用户十分友好。 LazyGraphRAG的核心优势在于其在成本和质量方面的可扩展性。与其他方法(如标准向量RAG、RAPTOR以及GraphRAG的本地、全局和DRIFT搜索机制)相比,LazyGraphRAG在性价比上表现卓越: 此外,LazyGraphRAG即将登陆GraphRAG的开源库,为用户提供统一的查询接口,覆盖本地和全局查询。 工作原理:混合最佳与广度搜索LazyGraphRAG结合了向量RAG和GraphRAG的优势,同时克服了它们各自的局限: LazyGraphRAG采用迭代深化的方法,将两者巧妙融合,并通过一个核心参数——相关性测试预算,控制成本与质量的平衡。 性能表现:全面胜出在一项包含5590篇新闻文章和100个查询(50个局部和50个全局问题)的测试中,LazyGraphRAG在多项指标(全面性、多样性、启发性)上显著领先于其他八种主流方法。尤其是在100相关性测试预算的最低配置下,LazyGraphRAG已全面超越了本地和全局查询的绝大部分竞争对手。 对比总结LazyGraphRAG依赖于动态的查询细化和概念映射,而非静态的摘要索引。这种“懒惰”的方法不仅极大提高了效率,也实现了与高成本方法相媲美的答案质量。 未来展望尽管LazyGraphRAG性能强大,但它并非所有场景的最佳选择: 未来,GraphRAG将继续优化搜索机制,并在GitHub平台分享所有进展,敬请期待!
AI训练技术革新:突破规模化瓶颈,引领新发展浪潮
在面临大规模语言模型开发延迟和挑战的背景下,包括OpenAI在内的领先AI公司正研发全新训练技术。这些方法致力于模拟人类思维方式,引导算法学习“如何思考”,为AI的发展带来新可能。 由多名顶尖AI研究者、科学家和投资者主导的这一突破性技术,成为OpenAI最新模型“o1”(前称Q*和Strawberry)的核心支撑。这些创新技术可能彻底改变AI开发所需资源的种类和数量,例如高性能硬件和能耗的优化。 模拟人类推理:o1模型的技术亮点 o1模型通过模拟人类的推理方式,采用逐步分解任务的方式解决问题。同时,该模型利用AI行业专家提供的专业数据和反馈,不断提升其性能。这一方法标志着从传统的规模化扩展到更智能化训练的转变。 自2022年ChatGPT问世以来,AI领域迎来爆发式创新。尽管许多科技公司认为,AI模型的持续改进需要更庞大的数据和更强的计算资源,但近年来,研究者逐渐意识到,单纯依赖规模化扩展的边际效应正在减弱。 “规模化时代”落幕:AI面临新挑战 OpenAI联合创始人伊利亚·苏茨克维尔指出,2010年代见证了AI因规模化而实现的革命性发展,但如今,AI领域正重新回归“探索与发现的时代”。他强调:“找到正确的扩展方向,比单纯追求规模更重要。” 大规模语言模型(LLM)开发的瓶颈开始显现: 革新技术:测试时计算(Test-Time Compute) 为突破现有瓶颈,研究者正探索“测试时计算”技术。这种方法通过实时生成多个答案,并针对复杂任务分配更多计算资源,从而实现更高效的推理与决策能力。其核心目标是提升模型的准确性和智能性。 OpenAI研究员诺姆·布朗在TED AI大会上展示了这一技术的潜力。他提到:“让一个AI模型在扑克中‘思考’20秒,能带来与将模型规模扩展10万倍、训练时间延长10万倍相同的性能提升。” 这一理念颠覆了传统思路:通过改变AI处理信息的方式,而非单纯扩大模型规模,未来AI系统的效率与能力或将迎来飞跃。 技术扩散与市场影响 OpenAI并非唯一采用o1技术的公司,xAI、Google DeepMind和Anthropic等AI实验室也在开发类似技术。这种竞争格局可能对AI硬件市场产生深远影响,特别是Nvidia等在AI芯片领域占主导地位的企业。 目前,Nvidia因其产品在AI集群中的广泛应用,已跻身全球最具价值公司之列。然而,随着新技术的普及,AI对硬件需求的变化可能削弱其市场地位,同时为推理芯片市场带来更多竞争者。 新AI时代的曙光 随着硬件需求演变和训练技术升级,AI领域正迈向一个多元化发展的新阶段。以o1模型为代表的创新方法不仅提升了AI的效率和能力,还可能彻底重塑AI行业格局。未来,AI技术和相关企业将在更激烈的竞争中释放前所未有的潜力,为人类创造更多可能性。
谷歌AI产品可能受限?美法官审视搜索垄断案中的AI角色
在本周二的状态会议上,美国地方法官Amit Mehta表示,政府若在搜索垄断案中胜诉,可能对谷歌的AI产品施加限制,作为反垄断补救措施。这一潜在裁决无疑为谷歌的未来布局蒙上阴影。 据法务新闻平台Law360报道,Mehta指出,旨在模仿搜索引擎功能的AI产品的出现正在迅速改变市场。他强调,补救措施阶段的讨论将更多聚焦AI在谷歌搜索帝国中的角色,而这一点在案件责任认定阶段并未被深入探讨。 “AI的整合将比在责任阶段时表现得更重要,”Mehta表示,“市场本身正在迅速变化,我们需要重新审视这一点。” 谷歌试图将竞争对手卷入 为对抗美国司法部(DOJ)提出的补救措施,谷歌正在试图将其AI领域的主要竞争对手拉入这场诉讼中。据报道,谷歌正要求获得微软的AI合作协议信息,包括微软对OpenAI的130亿美元投资。Mehta初步同意谷歌的部分请求,称这些信息对于补救措施的审理具有“核心相关性”。 DOJ则要求采取一系列严厉的措施,旨在防止谷歌利用AI巩固其搜索和广告市场的主导地位。这些措施包括禁止谷歌与内容发布者达成独家协议用于训练AI,以避免AI领域的竞争对手无法获取所需数据;限制谷歌对AI产品的投资或收购;以及禁止谷歌通过Android设备进行自我优待或限制竞争对手的分发途径。 更引人关注的是,DOJ还建议若行为限制无法打破谷歌的垄断格局,法院应考虑要求谷歌出售Android业务。 此外,DOJ提议强制谷歌允许出版商选择不参与AI训练,同时不会影响其在谷歌搜索中的排名。目前,出版商若选择拒绝AI数据抓取,其内容也会自动从谷歌搜索索引中移除。 DOJ在法庭文件中称,这些补救措施的目标是清除搜索市场中的障碍,为AI驱动的新竞争打开局面。 AI成争议核心 谷歌的律师John E. Schmidtlein在会议上表示,DOJ的AI补救措施不具相关性,并警告称这些“非常规”措施可能会“严重阻碍”谷歌的AI创新。他承认AI是搜索未来的关键,但坚称这与案件的核心问题无关。 另一方面,微软正在努力保护其与OpenAI等AI公司的协议细节。微软辩称,谷歌要求查看这些协议的理由不足,并称其合作协议与搜索或广告市场关系不大。然而,Mehta已要求OpenAI分享部分财务数据及其训练数据来源,以便法庭全面了解AI对市场竞争的潜在影响。 AI:搜索市场的未来战场 DOJ认为,AI驱动的解决方案(如基于查询的AI)可能成为搜索市场中新一代竞争的关键路径。为了防止谷歌利用现有数据优势阻碍竞争,DOJ敦促法院采取全面措施,确保新技术的发展不受垄断行为的干扰。 Mehta法官表示,AI对搜索市场动态的影响已然显现,并将在未来持续快速发展。法院是否会接受DOJ的观点,目前仍有待观察。但可以肯定的是,AI正成为搜索市场未来的关键战场,所有相关方的战略都将受到这场诉讼的深远影响。