OpenAI董事会突然解雇CEO Sam Altman的谜团可能已经揭晓。最新报道称,多位研究人员向他们发出警告,称一个名为Q*(发音为Q-Star)的新技术突破可能对人类构成威胁——而Altman似乎未能及时通知他们。 研究人员在给董事会的一封信中提到,这一突破可能使人工智能在“大多数经济价值领域超越人类”。 迄今为止的故事 OpenAI在周五宣布,公司董事会的四名成员解雇了Altman,并将Brockman从董事会中移除。给出的理由非常模糊,只是称Altman“在与董事会的沟通中并不始终如一”。 科技界对Altman表示支持,OpenAI的主要投资者试图让他复职。董事会和高级管理层进行了谈判,但未能成功。 微软向Altman、Brockman以及其他想加入他们的OpenAI团队成员提供了工作机会。随后,几乎所有员工向董事会发出公开信,声明除非Altman复职并解雇董事会,否则他们将辞职。 OpenAI最初表示CTO Mira Murati将担任临时CEO,但在48小时内宣布Twitch联合创始人Emmett Shear将替换她,也是作为临时聘用。 随后进行了第二轮谈判。谈判结果是除了一名董事会成员外,所有人都被移除,Sam Altman重新被任命为CEO——但有一些显著的妥协。 Q*技术突破是什么? 目前,如果你让ChatGPT解决数学问题,它仍将使用其基于大型文本数据库的预测文本方法来编译答案,并逐字逐句决定人类会如何回答。这意味着它可能会也可能不会得到正确答案,但无论如何都没有数学技能。 OpenAI似乎在这一领域取得了突破,成功使人工智能模型能够真正解决它以前没有见过的数学问题。据说这一发展被称为Q*。不幸的是,团队没有使用足够智能的命名模型来避免看起来像脚注的东西,所以我将使用Q-Star版本。 据说Q-Star目前的数学能力相当于小学生,但预计这种能力将迅速提高。 Q-Star模型是否威胁到人类? 表面上看,一个能解决方程的AI系统似乎并不是反乌托邦梦魇的材料。要么人类去盐矿工作,要么Q-Star计算出哪四条线与2y=x+7平行。 但路透社的报告称,Q-Star研究可能指向AI的圣杯:通用人工智能(AGI)。 OpenAI中的一些人相信Q*(发音为Q-Star)可能是该公司寻找所谓通用人工智能(AGI)的一个突破,一位知情人士告诉路透社。OpenAI将AGI定义为在大多数经济价值任务中超越人类的自主系统。 据称,得益于巨大的计算资源,新模型能够解决某些数学问题,这位不愿透露姓名的人士说,因为该人士未获授权代表公司发言。尽管只在小学生水平上进行数学运算,但这种测试的成功使研究人员对Q*的未来成功非常乐观。 AGI是指一个足够智能的AI系统,能够执行人类可以执行的任何任务。如果这个目标真的实现,它将有效地导致几乎所有人类的工作被AI取代。 Altman被解雇现在可能有了解释 如果Q-Star突破确实使得开发AGI的可能性增加,且Altman未能将此事告知董事会,那么这将解释董事会关于他缺乏坦诚的评论,以及解雇的紧迫性。 然而,值得注意的是,这是——据我们所知——只有少数研究人员共享的担忧,由于大多数AI员工支持Altman对抗董事会,这表明聪明的钱(或聪明的人)似乎认为这是一种夸大的担忧。 尽管如此,保留现有的公司结构仍然是有意义的,在这种结构中,一个独立董事会——在AI商业部门没有财务投资——提供监督,并就盈利公司应该如何推进和速度做出决策。
Author: aitrendtrackers@rengongzhineng.io
Stable Video Diffusion最新亮相了!
今天,Stability AI推出了基于稳定扩散图像模型的首个基础视频生成模型——“稳定视频扩散”。 现已在研究预览版中发布,这一最先进的生成式人工智能视频模型是我们朝着为各种类型的每个人创建模型的旅程中的一大步。 随着这次研究版的发布,已经在GitHub仓库上提供了稳定视频扩散的代码,而运行模型所需的权重可以在Hugging Face页面上找到。关于模型技术能力的更多细节可以在研究论文中找到。 视频模型可以轻松适应各种下游任务,包括从单一图像通过在多视图数据集上微调来进行多视图合成。Stability AI计划开发一系列基于这一基础并扩展的模型,类似于围绕稳定扩散构建的生态系统。 此外,今天,你可以在这里登记我们的等候名单,以访问即将推出的新网络体验,包括文本到视频的界面。这个工具展示了稳定视频扩散在广告、教育、娱乐等多个领域的实际应用。稳定视频扩散以两种图像到视频模型的形式发布,能够在每秒3至30帧之间自定义帧率,生成14至25帧。在基础形式发布时,通过外部评估,发现这些模型在用户偏好研究中超越了领先的封闭模型。 虽然Stability AI急切地用最新的进展更新模型,但他们强调,这个模型在现阶段不适用于现实世界或商业应用。体验用户对安全和质量的见解和反馈对于完善这个模型,为最终发布做好准备至关重要。
Anthropic公司刚刚推出了Claude 2.1这个新版本!
Anthropic刚刚发布了他们的AI助手最新版本——Claude 2.1,这次升级可不一般,包括200,000个词符的上下文窗口、减少幻觉现象的发生率,以及新增的工具使用功能。那么,新晋AI小王子Claude 2.1的出现,会让你跟OpenAI说拜拜吗? Anthropic推出了Claude 2.1,相比Claude 2有了一系列改进。 这意味着什么? 200,000个词符相当于500页文本,你可以把发给前任的所有信息都塞进去。而且,Claude在利用这个巨大的上下文窗口方面也有所提升——幻觉信息的发生率降低了一半。Anthropic称这是诚实度的提高。感觉就像前任说:“亲爱的,我们复合吧,我在诚实度上有了重大提升。” Claude 2.1在输出上也更准确可靠——错误回答减少了30%,不支持的说法降低了3-4倍。简单来说,Claude会少撒谎,尽量不让你感到被操纵。 通过API访问,你现在还可以通过API访问额外的工具,不过这个功能还在测试阶段。开发者控制台还增加了一些功能:系统提示和一个用于测试提示的游乐场。 对于使用Claude API的企业用户来说,2.1版本将助手的功能提升到了处理完整文档的新水平。新的工具集成功能允许Claude根据自然语言请求直接查询数据库、发起API调用等。 Claude 2.1已在免费和专业计划中上线,但增加的上下文长度是专为专业用户准备的。
Inflection-2 这个新模型可是大放豪言
Inflection团队激动地宣布已经完成了Inflection-2模型的训练,它是目前全球同类计算中最优秀的模型,也是世界第二强大的大型语言模型(LLM)。 Inflection的使命是为每个人打造个性化的AI。就在几个月前,发布了Inflection-1 —— 一个业内领先的语言模型,它目前是Pi的核心动力。新模型Inflection-2,比Inflection-1有了质的飞跃,无论是事实知识的准确性、风格控制,还是推理能力都大大提高。 图1:在常用的学术基准测试中,Inflection-1、谷歌的PaLM 2-Large和Inflection-2的比较。(括号内为N-shots) Inflection-2是在约10²⁵ FLOPs的情况下,使用5000块NVIDIA H100 GPU以fp8混合精度进行训练的。这让它与谷歌的旗舰模型PaLM 2 Large处于同一训练计算类别,而在大多数标准AI性能基准测试中,包括著名的MMLU、TriviaQA、HellaSwag和GSM8k等,Inflection-2的表现都超过了PaLM 2 Large。 Inflection-2在设计时就考虑到了服务效率,不久将会为Pi提供动力。得益于从A100转向H100 GPU,以及高度优化的推理实现,尽管Inflection-2的规模是Inflection-1的数倍,但还是成功降低了服务成本,提高了速度。 这是实现为每个人构建个人AI道路上的一个重要里程碑,Inflection-2将为Pi带来的新能力感到兴奋。随着规模化之旅的继续,已经开始期待在22000块GPU集群的全能力下训练更大的模型。敬请期待! 训练如此大型的模型需要特别的关注和照顾,尤其是在安全、安全性和可信度方面。在Inflection,非常重视这些责任,安全团队继续确保这些模型经过严格评估,并集成了业界最佳的对齐方法。是第一个签署2023年7月白宫自愿承诺的公司,并继续支持为这项关键技术创建全球对齐和治理机制的努力。 感谢合作伙伴NVIDIA、微软和CoreWeave,在构建AI集群、使Inflection-1和Inflection-2的训练成为可能方面给予的合作与支持。
全新的生成型AI模型设计出了自然界中未曾发现的蛋白质
在一项名为《用可编程生成模型照亮蛋白质空间》的新研究中,研究人员介绍了一种生成型人工智能(AI)模型,名为Chroma,它能够创造出自然界中未曾发现的具有可编程属性的新型蛋白质,并在实验室中展示了其疗效潜力。 这项研究来自马萨诸塞州索默维尔市的Generate:Biomedicines公司,该公司在机器学习、生物工程和医学交汇处工作,重点是蛋白质设计。 “从第一天起,我们就一直在研究蛋白质的生成模型。这就是为什么我们的名字是Generate!” Generate:Biomedicines的联合创始人兼首席技术官Gevorg Grigoryan博士兴奋地说。 在AI革命之前,蛋白质设计方法仅限于基于自然界现有蛋白质的设计,这存在局限性,因为自然只是对可能的蛋白质景观的一小部分进行了采样。相比之下,生成型AI方法强调从零开始的蛋白质设计——从头开始设计新蛋白质——以扩展功能和理想属性的范围,超越自然所达到的水平。 Chroma被记录为在外部约束下设计蛋白质,这可能涉及对称性、子结构、形状,甚至自然语言提示。对Chroma生成的310种蛋白质进行的实验表征结果显示,这些蛋白质表达、折叠,并具有良好的生物物理特性。 Grigoryan指出,从一开始,程序性就是Chroma框架的一个内在部分,因为产生治疗应用需要的不仅仅是生成可以实验验证的结构。评估蛋白质的功能,如结合、异构控制和酶活性,对治疗潜力至关重要。 此外,Grigoryan强调,这项研究的一个新颖之处在于在进行蛋白质设计活动时,实验验证思维方式的转变。 “与其目标是‘我想让蛋白质起作用’,我们的目标是对模型进行表征。我们想了解Chroma学到的东西有多少是真实的,”Grigoryan在接受GEN采访时说。 在决定哪些计算结构进行实验验证时,常见的方法是一个过滤步骤,其中蛋白质设计师根据对生物物理结构的理解来评判设计,例如由于溶解性问题而对疏水区域的过度代表性进行惩罚。 Grigoryan告诉GEN,选择进行实验验证的310种蛋白质是直接从模型输出中取得的,并未以这种方式进行过滤。 “从这些蛋白质中,我们看到了极高的成功率,这当然非常令人兴奋,因为它表明由Chroma参数化的这个大型蛋白质空间是真实的[并且允许更有效的蛋白质设计],”Grigoryan继续说。 让数据为您服务 蛋白质设计领域传统的“自下而上”方法,基于原子的生物物理动力学模拟
谷歌DeepMind正试图界定什么是人工通用智能
人工通用智能(AGI)是当今科技界最火热也最具争议的话题之一。最大的问题之一是,很少有人对这个术语的含义达成共识。现在,谷歌DeepMind的研究团队发表了一篇论文,提出了不仅一个,而是一整套新的AGI定义。 相关故事: Ilya Sutskever的头部从云层中浮现,其背后的窗户里显现出一个图灵模式的分身。 OpenAI首席科学家的脑海中:超级智能的梦魇与机器融合 与Ilya Sutskever关于AI未来的担忧以及这些担忧如何改变了他一生工作重心的独家对话。 广义上,AGI通常指能在一系列任务上与人类匹敌(或超越)的人工智能。但关于什么算作人类般智能、涉及哪些任务、以及任务的数量等细节问题,通常都被忽视了:AGI就是AI,只不过更好。 为了定义这个新概念,谷歌DeepMind团队从现有的主要AGI定义出发,提取出他们认为的核心共同特征。 团队还概述了五个不断提升的AGI级别:初现(他们认为包括像ChatGPT和Bard这样的尖端聊天机器人)、胜任、专家、大师和超人类(在广泛的任务上表现优于所有人类,包括人类无法完成的任务,如解读他人的思想、预测未来事件和与动物交流)。他们指出,除了初现阶段的AGI外,尚未实现其他任何级别。 “这为这个话题提供了一些急需的明确性,”纽约大学的AI研究员朱利安·托格利乌斯说,他并未参与这项工作。“太多人在不加思考地滥用AGI这个术语。” 研究人员上周在网上发布了他们的论文,毫无炒作。在与两名团队成员的独家对话中——DeepMind联合创始人之一、现被称为公司首席AGI科学家的Shane Legg,以及谷歌DeepMind人类与AI互动首席科学家Meredith Ringel Morris——我了解到了他们提出这些定义的原因和目标。 更清晰的定义 “我看到很多讨论,人们似乎对这个术语有不同的理解,这导致了各种混乱,”大约20年前首次提出这个术语的Legg说。“现在AGI成为如此重要的话题——你知道,甚至英国首相都在谈论它——我们需要明确我们的意思。” 情况并非一直如此。曾经,AGI的讨论在严肃对话中被嘲笑为模糊不清,甚至是魔法思维。但在生成模型的炒作下,AGI的讨论现在无处不在。 当Legg在2007年建议他的前同事、研究员Ben Goertzel将这个术语用作Goertzel关于AI未来发展的书的标题时,模糊的意图恰恰是关键所在。“我并没有一个特别清晰的定义。我真的觉得没必要,”Legg说。“我实际上更把它看作是一门研究领域,而不是一种工具。” 当时他的目标是将能够非常好地完成一个任务的现有AI(如IBM的国际象棋程序Deep Blue)与他和许多其他人想象的有朝一日能够非常好地完成许多任务的假想AI区分开来。人类智能不像Deep Blue,Legg说:“它是一种非常广泛的东西。” 但随着时间的推移,人们开始将AGI视为实际计算机程序可能拥有的潜在属性。如今,谷歌DeepMind和OpenAI等顶级AI公司公开声明其构建此类程序的使命已成为常态。 “如果你开始进行这些对话,你需要对你的意思更加具体,”Legg说。 例如,DeepMind的研究人员指出,AGI必须既是通用的又是高成就的,而不仅仅是其中之一。“以这种方式区分广度和深度非常有用,”托格利乌斯说。“这说明了为什么我们过去看到的非常成功的AI系统不符合AGI的标准。” 他们还指出,AGI不仅必须能够完成一系列任务,还必须能够学习如何完成这些任务、评估其表现,并在需要时寻求帮助。他们还指出,AGI能够做什么比它如何做到更重要。 “并不是说AGI的工作方式不重要,”Morris说。问题在于,我们对当前尖端模型(如大型语言模型)的内部工作方式了解还不够多,无法将此作为定义的重点。 “随着我们对这些底层过程的理解加深,重新审视我们对AGI的定义可能很重要,”Morris说。“我们需要专注于当今可以以科学公认的方式测量的东西。” 评估标准 评估当今模型的表现已经引起了争议,研究人员正在辩论一个大型语言模型通过数十项高中测试的真正含义是什么。这是智能的标志吗?还是一种机械式学习? 评估未来更有能力的模型的表现将更加困难。研究人员建议,如果AGI真的被开发出来,其能力应该持续评估,而不是通过少数一次性测试。 团队还指出,AGI并不意味着自主性。“人们常常默认地假设人们会希望一个系统完全自主运行,”Morris说。但情况并非总是如此。理论上,可以构建完全由人类控制的超级智能机器。 研究人员在讨论AGI是什么时没有解决的一个问题是,为什么我们应该构建它。一些计算机科学家,如分布式AI研究所创始人Timnit Gebru,认为整个事业很奇怪。在4月份关于她所看到的通过AGI实现乌托邦的虚假(甚至危险)承诺的演讲中,Gebru指出,这种假想技术“听起来像是一个未定义的系统,其表面目标似乎是在任何环境下为每个人做任何事。” 大多数工程项目都有明确的目标。构建AGI的任务则没有。即使谷歌DeepMind的定义也允许AGI无限广泛、无限智能。“不要试图创造一个神,”
当人工智能控制的杀手无人机成为现实,各国开始讨论限制
美国和其他大国正在抗拒一些国家呼吁的新法律限制,它们担心机器人战争的风险。就在这里,我们谈谈这个超科幻的事儿:自主寻找目标的杀手机器人群!美国、中国和其他几个国家正在快速发展这些技术,可能会改变战争的本质,让生死决定权交给配备人工智能程序的自主无人机。 不过,这事儿让很多国家都急了,他们在联合国提议,要对所谓的致命自主武器使用强制性法律规则。奥地利首席谈判代表Alexander Kmentt说这是人类历史上的一个重要转折点,关于人类在使用武力中的角色,这是个安全、法律和道德的大问题。 但联合国的讨论似乎不太可能很快产生具有约束力的新规定。美国、俄罗斯、澳大利亚、以色列等国都认为目前不需要新的国际法,而中国则希望将任何法律限制定义得非常狭窄,以至于实际效果很小。 最近,人工智能的风险讨论再次引起关注,特别是围绕OpenAI(可能是世界领先的AI公司)的控制权之争。中国和美国官员上周还讨论了一个相关议题:限制AI在决定使用核武器方面的应用。 现在的问题是,是否应该只让联合国通过非约束性指导方针,这是美国支持的立场。但这种大国的立场只增加了小国的焦虑,他们担心在达成使用规则之前,致命自主武器可能会在战场上变得普遍。 随着人工智能的迅猛发展和无人机在乌克兰和中东冲突中的密集使用,这个问题变得更加迫切。到目前为止,无人机通常依赖于人类操作员执行致命任务,但正在开发的软件很快将允许它们更多地独立寻找和选择目标。 但是,美国已经采纳了自愿政策,对人工智能和致命自主武器的使用设定了限制,包括今年修订的五角大楼政策“武器系统中的自主性”和相关的国务院“负责任使用人工智能和自主性的政治宣言”。 有些武器管制倡导者和外交官不同意,他们认为AI控制的致命武器如果没有人类授权单独打击,会改变战争的性质,因为它们在决定夺取生命时消除了人类的直接道德作用。 这些AI武器有时会以不可预测的方式行动,它们可能会在识别目标时犯错误,就像无人驾驶汽车会发生事故一样。新武器还可能使战时使用致命武力变得更加可能,因为发射它们的军队不会立即将自己的士兵置于风险之中,或者它们可能导致更快的升级。 奥地利外交官Kmentt承认,联合国在执行现有限制战争方式的条约方面遇到了困难。但他说,仍然需要制定一个新的具有法律约束力的标准。
OpenAI 解雇 Sam Altman – 周末的大事件概述
星期五,11 月 17 日 星期六,11 月 18 日 星期日,11 月 19 日 星期一,11 月 20 日 主要事件 猜测 结果
爆炸新闻:OpenAI CEO萨姆 奥特曼下台
OpenAI 公司,这家负责管理 ChatGPT、DALL-E 3、GPT-4 以及其他高能力生成 AI 系统的 AI 初创公司的非营利性管理机构 OpenAI, Inc. (一家 501(c)(3) 非营利组织),已经解雇了 Sam Altman。他将离开公司董事会,并卸任 CEO 职务。 在 OpenAI 官方博客上的一篇文章中,公司写道,Altman 的离职是在董事会进行了“审慎的审查过程”后得出的结论,这个过程发现 Altman “在与其他董事会成员的沟通中并不总是坦率”,“阻碍了其履行职责的能力”。“董事会不再对 [Altman] 继续领导 OpenAI 的能力有信心。” OpenAI 的这次重大领导层变动还将看到 Greg Brockman — 他和 Altman 一样是 OpenAI 的联合创始团队成员 — 卸任董事会主席,但仍然担任 OpenAI 的总裁,向公司新任命的临时 CEO Mira Murati 汇报。Murati 此前是 OpenAI 的首席技术官。OpenAI 表示,它将立即开始进行正式的 CEO 搜索。 “OpenAI 是有意构建的,以推进我们的使命:确保人工通用智能惠及全人类,”董事会在一份联合声明中写道。“董事会仍然全力支持这一使命。我们感谢 Sam…
Meta 推出了用于视频生成和图片编辑的 AI 模型啦。
社交媒体巨头 Meta 根据 11 月 16 日的博客文章,介绍了其最新的用于内容编辑和生成的人工智能(AI)模型。 这家公司推出了两种 AI 驱动的生成模型。第一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够基于文本和图像输入生成视频剪辑。第二个模型 Emu Edit,专注于图像操作,承诺在图像编辑方面更精确。 这些模型仍处于研究阶段,但 Meta 表示其初步结果显示了对创作者、艺术家和动画师等的潜在用途。 据 Meta 的博客文章,Emu Video 接受了一种“分解”方法的训练,将训练过程分为两步,以使模型能够响应不同的输入: “我们将过程分为两步:首先,根据文本提示生成图像,然后根据文本和生成的图像生成视频。这种‘分解’或分割方法让我们能够高效地训练视频生成模型。” 同一模型还可以根据文本提示“动画化”图像。根据 Meta 的说法,不是依赖于“深度级联模型”,Emu Video 只使用两个扩散模型来生成 512×512 分辨率、每秒 16 帧的四秒长视频。 专注于图像操作的 Emu Edit 将允许用户删除或添加图像背景、执行颜色和几何变换,以及图像的局部和全局编辑。 “我们认为,主要目标不应该仅仅是制作一个‘可信的’图像。相反,模型应该专注于精确地改变与编辑请求相关的像素,” Meta 指出,声称其模型能够精确地遵循指令: “例如,在棒球帽上添加‘Aloha!’文本时,帽子本身应保持不变。” Meta 使用包含 1000 万合成图像的数据集训练 Emu Edit,每个图像都有输入图像和任务描述以及目标输出图像。“我们认为这是迄今为止同类最大的数据集,”公司说。 Meta 新发布的 Emu 模型是使用 11…