Anthropic刚刚发布了他们的AI助手最新版本——Claude 2.1,这次升级可不一般,包括200,000个词符的上下文窗口、减少幻觉现象的发生率,以及新增的工具使用功能。那么,新晋AI小王子Claude 2.1的出现,会让你跟OpenAI说拜拜吗? Anthropic推出了Claude 2.1,相比Claude 2有了一系列改进。 这意味着什么? 200,000个词符相当于500页文本,你可以把发给前任的所有信息都塞进去。而且,Claude在利用这个巨大的上下文窗口方面也有所提升——幻觉信息的发生率降低了一半。Anthropic称这是诚实度的提高。感觉就像前任说:“亲爱的,我们复合吧,我在诚实度上有了重大提升。” Claude 2.1在输出上也更准确可靠——错误回答减少了30%,不支持的说法降低了3-4倍。简单来说,Claude会少撒谎,尽量不让你感到被操纵。 通过API访问,你现在还可以通过API访问额外的工具,不过这个功能还在测试阶段。开发者控制台还增加了一些功能:系统提示和一个用于测试提示的游乐场。 对于使用Claude API的企业用户来说,2.1版本将助手的功能提升到了处理完整文档的新水平。新的工具集成功能允许Claude根据自然语言请求直接查询数据库、发起API调用等。 Claude 2.1已在免费和专业计划中上线,但增加的上下文长度是专为专业用户准备的。
Category: Uncategorized
Inflection-2 这个新模型可是大放豪言
Inflection团队激动地宣布已经完成了Inflection-2模型的训练,它是目前全球同类计算中最优秀的模型,也是世界第二强大的大型语言模型(LLM)。 Inflection的使命是为每个人打造个性化的AI。就在几个月前,发布了Inflection-1 —— 一个业内领先的语言模型,它目前是Pi的核心动力。新模型Inflection-2,比Inflection-1有了质的飞跃,无论是事实知识的准确性、风格控制,还是推理能力都大大提高。 图1:在常用的学术基准测试中,Inflection-1、谷歌的PaLM 2-Large和Inflection-2的比较。(括号内为N-shots) Inflection-2是在约10²⁵ FLOPs的情况下,使用5000块NVIDIA H100 GPU以fp8混合精度进行训练的。这让它与谷歌的旗舰模型PaLM 2 Large处于同一训练计算类别,而在大多数标准AI性能基准测试中,包括著名的MMLU、TriviaQA、HellaSwag和GSM8k等,Inflection-2的表现都超过了PaLM 2 Large。 Inflection-2在设计时就考虑到了服务效率,不久将会为Pi提供动力。得益于从A100转向H100 GPU,以及高度优化的推理实现,尽管Inflection-2的规模是Inflection-1的数倍,但还是成功降低了服务成本,提高了速度。 这是实现为每个人构建个人AI道路上的一个重要里程碑,Inflection-2将为Pi带来的新能力感到兴奋。随着规模化之旅的继续,已经开始期待在22000块GPU集群的全能力下训练更大的模型。敬请期待! 训练如此大型的模型需要特别的关注和照顾,尤其是在安全、安全性和可信度方面。在Inflection,非常重视这些责任,安全团队继续确保这些模型经过严格评估,并集成了业界最佳的对齐方法。是第一个签署2023年7月白宫自愿承诺的公司,并继续支持为这项关键技术创建全球对齐和治理机制的努力。 感谢合作伙伴NVIDIA、微软和CoreWeave,在构建AI集群、使Inflection-1和Inflection-2的训练成为可能方面给予的合作与支持。
全新的生成型AI模型设计出了自然界中未曾发现的蛋白质
在一项名为《用可编程生成模型照亮蛋白质空间》的新研究中,研究人员介绍了一种生成型人工智能(AI)模型,名为Chroma,它能够创造出自然界中未曾发现的具有可编程属性的新型蛋白质,并在实验室中展示了其疗效潜力。 这项研究来自马萨诸塞州索默维尔市的Generate:Biomedicines公司,该公司在机器学习、生物工程和医学交汇处工作,重点是蛋白质设计。 “从第一天起,我们就一直在研究蛋白质的生成模型。这就是为什么我们的名字是Generate!” Generate:Biomedicines的联合创始人兼首席技术官Gevorg Grigoryan博士兴奋地说。 在AI革命之前,蛋白质设计方法仅限于基于自然界现有蛋白质的设计,这存在局限性,因为自然只是对可能的蛋白质景观的一小部分进行了采样。相比之下,生成型AI方法强调从零开始的蛋白质设计——从头开始设计新蛋白质——以扩展功能和理想属性的范围,超越自然所达到的水平。 Chroma被记录为在外部约束下设计蛋白质,这可能涉及对称性、子结构、形状,甚至自然语言提示。对Chroma生成的310种蛋白质进行的实验表征结果显示,这些蛋白质表达、折叠,并具有良好的生物物理特性。 Grigoryan指出,从一开始,程序性就是Chroma框架的一个内在部分,因为产生治疗应用需要的不仅仅是生成可以实验验证的结构。评估蛋白质的功能,如结合、异构控制和酶活性,对治疗潜力至关重要。 此外,Grigoryan强调,这项研究的一个新颖之处在于在进行蛋白质设计活动时,实验验证思维方式的转变。 “与其目标是‘我想让蛋白质起作用’,我们的目标是对模型进行表征。我们想了解Chroma学到的东西有多少是真实的,”Grigoryan在接受GEN采访时说。 在决定哪些计算结构进行实验验证时,常见的方法是一个过滤步骤,其中蛋白质设计师根据对生物物理结构的理解来评判设计,例如由于溶解性问题而对疏水区域的过度代表性进行惩罚。 Grigoryan告诉GEN,选择进行实验验证的310种蛋白质是直接从模型输出中取得的,并未以这种方式进行过滤。 “从这些蛋白质中,我们看到了极高的成功率,这当然非常令人兴奋,因为它表明由Chroma参数化的这个大型蛋白质空间是真实的[并且允许更有效的蛋白质设计],”Grigoryan继续说。 让数据为您服务 蛋白质设计领域传统的“自下而上”方法,基于原子的生物物理动力学模拟
谷歌DeepMind正试图界定什么是人工通用智能
人工通用智能(AGI)是当今科技界最火热也最具争议的话题之一。最大的问题之一是,很少有人对这个术语的含义达成共识。现在,谷歌DeepMind的研究团队发表了一篇论文,提出了不仅一个,而是一整套新的AGI定义。 相关故事: Ilya Sutskever的头部从云层中浮现,其背后的窗户里显现出一个图灵模式的分身。 OpenAI首席科学家的脑海中:超级智能的梦魇与机器融合 与Ilya Sutskever关于AI未来的担忧以及这些担忧如何改变了他一生工作重心的独家对话。 广义上,AGI通常指能在一系列任务上与人类匹敌(或超越)的人工智能。但关于什么算作人类般智能、涉及哪些任务、以及任务的数量等细节问题,通常都被忽视了:AGI就是AI,只不过更好。 为了定义这个新概念,谷歌DeepMind团队从现有的主要AGI定义出发,提取出他们认为的核心共同特征。 团队还概述了五个不断提升的AGI级别:初现(他们认为包括像ChatGPT和Bard这样的尖端聊天机器人)、胜任、专家、大师和超人类(在广泛的任务上表现优于所有人类,包括人类无法完成的任务,如解读他人的思想、预测未来事件和与动物交流)。他们指出,除了初现阶段的AGI外,尚未实现其他任何级别。 “这为这个话题提供了一些急需的明确性,”纽约大学的AI研究员朱利安·托格利乌斯说,他并未参与这项工作。“太多人在不加思考地滥用AGI这个术语。” 研究人员上周在网上发布了他们的论文,毫无炒作。在与两名团队成员的独家对话中——DeepMind联合创始人之一、现被称为公司首席AGI科学家的Shane Legg,以及谷歌DeepMind人类与AI互动首席科学家Meredith Ringel Morris——我了解到了他们提出这些定义的原因和目标。 更清晰的定义 “我看到很多讨论,人们似乎对这个术语有不同的理解,这导致了各种混乱,”大约20年前首次提出这个术语的Legg说。“现在AGI成为如此重要的话题——你知道,甚至英国首相都在谈论它——我们需要明确我们的意思。” 情况并非一直如此。曾经,AGI的讨论在严肃对话中被嘲笑为模糊不清,甚至是魔法思维。但在生成模型的炒作下,AGI的讨论现在无处不在。 当Legg在2007年建议他的前同事、研究员Ben Goertzel将这个术语用作Goertzel关于AI未来发展的书的标题时,模糊的意图恰恰是关键所在。“我并没有一个特别清晰的定义。我真的觉得没必要,”Legg说。“我实际上更把它看作是一门研究领域,而不是一种工具。” 当时他的目标是将能够非常好地完成一个任务的现有AI(如IBM的国际象棋程序Deep Blue)与他和许多其他人想象的有朝一日能够非常好地完成许多任务的假想AI区分开来。人类智能不像Deep Blue,Legg说:“它是一种非常广泛的东西。” 但随着时间的推移,人们开始将AGI视为实际计算机程序可能拥有的潜在属性。如今,谷歌DeepMind和OpenAI等顶级AI公司公开声明其构建此类程序的使命已成为常态。 “如果你开始进行这些对话,你需要对你的意思更加具体,”Legg说。 例如,DeepMind的研究人员指出,AGI必须既是通用的又是高成就的,而不仅仅是其中之一。“以这种方式区分广度和深度非常有用,”托格利乌斯说。“这说明了为什么我们过去看到的非常成功的AI系统不符合AGI的标准。” 他们还指出,AGI不仅必须能够完成一系列任务,还必须能够学习如何完成这些任务、评估其表现,并在需要时寻求帮助。他们还指出,AGI能够做什么比它如何做到更重要。 “并不是说AGI的工作方式不重要,”Morris说。问题在于,我们对当前尖端模型(如大型语言模型)的内部工作方式了解还不够多,无法将此作为定义的重点。 “随着我们对这些底层过程的理解加深,重新审视我们对AGI的定义可能很重要,”Morris说。“我们需要专注于当今可以以科学公认的方式测量的东西。” 评估标准 评估当今模型的表现已经引起了争议,研究人员正在辩论一个大型语言模型通过数十项高中测试的真正含义是什么。这是智能的标志吗?还是一种机械式学习? 评估未来更有能力的模型的表现将更加困难。研究人员建议,如果AGI真的被开发出来,其能力应该持续评估,而不是通过少数一次性测试。 团队还指出,AGI并不意味着自主性。“人们常常默认地假设人们会希望一个系统完全自主运行,”Morris说。但情况并非总是如此。理论上,可以构建完全由人类控制的超级智能机器。 研究人员在讨论AGI是什么时没有解决的一个问题是,为什么我们应该构建它。一些计算机科学家,如分布式AI研究所创始人Timnit Gebru,认为整个事业很奇怪。在4月份关于她所看到的通过AGI实现乌托邦的虚假(甚至危险)承诺的演讲中,Gebru指出,这种假想技术“听起来像是一个未定义的系统,其表面目标似乎是在任何环境下为每个人做任何事。” 大多数工程项目都有明确的目标。构建AGI的任务则没有。即使谷歌DeepMind的定义也允许AGI无限广泛、无限智能。“不要试图创造一个神,”
当人工智能控制的杀手无人机成为现实,各国开始讨论限制
美国和其他大国正在抗拒一些国家呼吁的新法律限制,它们担心机器人战争的风险。就在这里,我们谈谈这个超科幻的事儿:自主寻找目标的杀手机器人群!美国、中国和其他几个国家正在快速发展这些技术,可能会改变战争的本质,让生死决定权交给配备人工智能程序的自主无人机。 不过,这事儿让很多国家都急了,他们在联合国提议,要对所谓的致命自主武器使用强制性法律规则。奥地利首席谈判代表Alexander Kmentt说这是人类历史上的一个重要转折点,关于人类在使用武力中的角色,这是个安全、法律和道德的大问题。 但联合国的讨论似乎不太可能很快产生具有约束力的新规定。美国、俄罗斯、澳大利亚、以色列等国都认为目前不需要新的国际法,而中国则希望将任何法律限制定义得非常狭窄,以至于实际效果很小。 最近,人工智能的风险讨论再次引起关注,特别是围绕OpenAI(可能是世界领先的AI公司)的控制权之争。中国和美国官员上周还讨论了一个相关议题:限制AI在决定使用核武器方面的应用。 现在的问题是,是否应该只让联合国通过非约束性指导方针,这是美国支持的立场。但这种大国的立场只增加了小国的焦虑,他们担心在达成使用规则之前,致命自主武器可能会在战场上变得普遍。 随着人工智能的迅猛发展和无人机在乌克兰和中东冲突中的密集使用,这个问题变得更加迫切。到目前为止,无人机通常依赖于人类操作员执行致命任务,但正在开发的软件很快将允许它们更多地独立寻找和选择目标。 但是,美国已经采纳了自愿政策,对人工智能和致命自主武器的使用设定了限制,包括今年修订的五角大楼政策“武器系统中的自主性”和相关的国务院“负责任使用人工智能和自主性的政治宣言”。 有些武器管制倡导者和外交官不同意,他们认为AI控制的致命武器如果没有人类授权单独打击,会改变战争的性质,因为它们在决定夺取生命时消除了人类的直接道德作用。 这些AI武器有时会以不可预测的方式行动,它们可能会在识别目标时犯错误,就像无人驾驶汽车会发生事故一样。新武器还可能使战时使用致命武力变得更加可能,因为发射它们的军队不会立即将自己的士兵置于风险之中,或者它们可能导致更快的升级。 奥地利外交官Kmentt承认,联合国在执行现有限制战争方式的条约方面遇到了困难。但他说,仍然需要制定一个新的具有法律约束力的标准。
OpenAI 解雇 Sam Altman – 周末的大事件概述
星期五,11 月 17 日 星期六,11 月 18 日 星期日,11 月 19 日 星期一,11 月 20 日 主要事件 猜测 结果
爆炸新闻:OpenAI CEO萨姆 奥特曼下台
OpenAI 公司,这家负责管理 ChatGPT、DALL-E 3、GPT-4 以及其他高能力生成 AI 系统的 AI 初创公司的非营利性管理机构 OpenAI, Inc. (一家 501(c)(3) 非营利组织),已经解雇了 Sam Altman。他将离开公司董事会,并卸任 CEO 职务。 在 OpenAI 官方博客上的一篇文章中,公司写道,Altman 的离职是在董事会进行了“审慎的审查过程”后得出的结论,这个过程发现 Altman “在与其他董事会成员的沟通中并不总是坦率”,“阻碍了其履行职责的能力”。“董事会不再对 [Altman] 继续领导 OpenAI 的能力有信心。” OpenAI 的这次重大领导层变动还将看到 Greg Brockman — 他和 Altman 一样是 OpenAI 的联合创始团队成员 — 卸任董事会主席,但仍然担任 OpenAI 的总裁,向公司新任命的临时 CEO Mira Murati 汇报。Murati 此前是 OpenAI 的首席技术官。OpenAI 表示,它将立即开始进行正式的 CEO 搜索。 “OpenAI 是有意构建的,以推进我们的使命:确保人工通用智能惠及全人类,”董事会在一份联合声明中写道。“董事会仍然全力支持这一使命。我们感谢 Sam…
Meta 推出了用于视频生成和图片编辑的 AI 模型啦。
社交媒体巨头 Meta 根据 11 月 16 日的博客文章,介绍了其最新的用于内容编辑和生成的人工智能(AI)模型。 这家公司推出了两种 AI 驱动的生成模型。第一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够基于文本和图像输入生成视频剪辑。第二个模型 Emu Edit,专注于图像操作,承诺在图像编辑方面更精确。 这些模型仍处于研究阶段,但 Meta 表示其初步结果显示了对创作者、艺术家和动画师等的潜在用途。 据 Meta 的博客文章,Emu Video 接受了一种“分解”方法的训练,将训练过程分为两步,以使模型能够响应不同的输入: “我们将过程分为两步:首先,根据文本提示生成图像,然后根据文本和生成的图像生成视频。这种‘分解’或分割方法让我们能够高效地训练视频生成模型。” 同一模型还可以根据文本提示“动画化”图像。根据 Meta 的说法,不是依赖于“深度级联模型”,Emu Video 只使用两个扩散模型来生成 512×512 分辨率、每秒 16 帧的四秒长视频。 专注于图像操作的 Emu Edit 将允许用户删除或添加图像背景、执行颜色和几何变换,以及图像的局部和全局编辑。 “我们认为,主要目标不应该仅仅是制作一个‘可信的’图像。相反,模型应该专注于精确地改变与编辑请求相关的像素,” Meta 指出,声称其模型能够精确地遵循指令: “例如,在棒球帽上添加‘Aloha!’文本时,帽子本身应保持不变。” Meta 使用包含 1000 万合成图像的数据集训练 Emu Edit,每个图像都有输入图像和任务描述以及目标输出图像。“我们认为这是迄今为止同类最大的数据集,”公司说。 Meta 新发布的 Emu 模型是使用 11…
2023年微软Ignite大会:Copilot人工智能的扩展、自定义芯片以及其他重要公告
微软的2023 Ignite活动带来了许多更新,AI产品的发布和扩展成为该公司为IT专业人士展示其更新愿景的核心。 正如我们自己的Devin Coldewey在10月份所写,微软首席执行官萨提亚·纳德拉已经明确表示,公司全力以赴投入AI,并且Ignite证明了这一点。从将其ChatGPT竞争对手必应聊天重命名为Copilot,到备受期待的自定义AI芯片,以与英伟达竞争,再到生成语音合成头像的方法,周三的活动中有许多以AI为中心的揭露。 我们汇集了我们各自的微软和AI专家Frederic Lardinois和Kyle Wiggers的各种公告,以防你错过了。 Bing Chat的竞争对手现在是Copilot 微软将今年早些时候在Bing上推出的AI驱动的聊天机器人Bing Chat重命名为Bing中的Copilot。Bing Chat Enterprise也被重新命名为Copilot。 正如Kyle所指出的,这一改变很可能是因为Bing Chat并没有为Bing带来多大的改变。现在看来,该公司正试图将这项技术与搜索引擎分离,以更好地与ChatGPT和其他流行聊天机器人竞争。 Copilot现在除了Copilot.Microsoft.com和Bing外,还可以在Windows中使用,并且在微软的企业订阅计划中免费提供。从12月1日起,Copilot将包含在Microsoft 365 F3中,并且其他客户将以每月5美元的价格提供。 自定义芯片,重点是人工智能 微软正在努力摆脱对GPU的依赖,推出了两款定制设计的、面向数据中心的AI芯片:Azure Maia 100 AI加速器和Azure Cobalt 100 CPU。 Maia 100可用于训练和运行AI模型,而Cobalt 100则设计用于运行通用工作负载。 微软表示,Maia 100和Cobalt 100将于明年初开始在Azure数据中心推出。它将首先为微软的AI服务提供动力,如Copilot和Azure OpenAI服务。 新的AI工具Copilot Azure、Copilot for Service和Copilot Studio 微软在Copilot中推出了新的AI工具,这是该公司生成性AI技术的品牌:Copilot for Azure、Copilot for Service、Copilot Studio和Dynamics 365 Guides中的Copilot。 Copilot for Azure是微软对谷歌云最近宣布的Duet AI的回应,它采用了一个面向云客户的聊天驱动助手的形式。Azure的Copilot目前可预览。 Copilot for Service是一个面向客户服务需求的工具,可以通过利用公司的网站、知识文章、离线数据库等回答客户服务代理常见的问题。 Dynamics 365…
这个人工智能机器人化学家可以在火星制造氧气
中国的研究人员开发了一种由人工智能 (AI) 支持的机器人化学家,它可能能够从火星的水中提取氧气。该机器人使用火星上发现的材料生产催化剂来分解水,释放氧气。这个想法可以补充现有的氧气生成技术,或导致开发能够在火星上合成有用资源的其他催化剂。 英国利物浦大学的化学家安迪·库珀 (Andy Cooper) 说:“如果您考虑一下去火星的挑战,您必须使用当地的材料。” “所以我可以理解它的逻辑。” 这项发表在《自然合成》杂志上的研究由中国科学技术大学的姜俊领导。姜俊和他的团队使用了一个冰箱大小的移动机器,配备了一个机械臂,分析了五颗来自火星或在地球上收集但模仿火星表面的陨石。该团队的目标是调查机器是否可以从材料中生产有用的催化剂。 AI 驱动的系统使用酸和碱来溶解和分离材料,然后分析产生的化合物。然后,这些化合物形成了对超过 370 万个化合物的搜索的基础,以寻找一种可以分解水的化学物质 – 已知存在于火星的两极和行星表面下 – 该团队表示,这个过程需要人类研究人员 2,000 年才能完成。结果是用于从水中释放氧气的氧气释放反应催化剂,有可能在未来的火星任务中使用。 “我们已经开发了一个具有化学大脑的机器人 AI 系统,”姜说。 “我们认为我们的机器无需人工指导即可利用火星矿石中的化合物。” 催化剂创造者 如果可以在火星上制造出能够从水中产生氧气的催化剂,这将消除需要任务从地球携带这种催化剂。姜说,对于每平方米的火星材料,他的团队的系统每小时可以产生近 60 克氧气,这可能会消除未来在该行星执行任务的宇航员携带氧气从地球携带到那里的需要。姜说:“机器人可以连续工作多年。” 然而,麻省理工学院干草堆天文台的迈克尔·海特 (Michael Hecht) 说,在火星上生产氧气有一种更简单的方法。他是美国宇航局毅力号漫游车上的“火星氧气现场资源利用实验”(MOXIE)的首席研究员,该漫游车于 2021 年 2 月登陆火星,并成功展示了从火星大气中生产氧气的能力,其中大部分是二氧化碳。 MOXIE 由于毅力号的功率输出有限,只能一次生产几克氧气。但将来,可以将 MOXIE 的放大版本用于生产足够多的人类定居点氧气。MOXIE 还可以生产足够量的气体作为火箭燃料的氧化剂,以发射航天器返回地球。海特说:“你每小时可以生产两到三公斤。” “扩大规模没有任何障碍。” 姜指出,他的团队的机器人化学家也可以用于在火星上生产其他有用催化剂,用于诸如施肥植物等过程。他说:“这种机器人可以制造不同的化学物质。” 而且火星并不是它唯一可以使用的的地方。姜说:“也许月球土壤是另一个方向。” 库珀说,以这种方式使用 AI 来合成有用材料是一个新兴的研究领域,除了太空旅行外还有其他应用。他说:“这是一种新兴的 AI 应用方法,更广泛地适用于所有类型的化学,而不仅限于催化和氧气生产。”