OpenAI的举报人向美国证券交易委员会(SEC)提交了一份投诉,指控这家人工智能公司非法禁止其员工向监管机构警告其技术可能对人类构成的严重风险,呼吁展开调查。 这些举报人称,OpenAI对其员工实施了过于严格的就业、离职和保密协议,这些协议可能会对向联邦监管机构提出关切的员工施加处罚。据一封本月早些时候发送给SEC专员的七页信件,这些协议要求员工放弃获得举报人补偿的联邦权利,并在希望向联邦当局披露信息时必须获得公司事先同意。该信件是《华盛顿邮报》独家获得的。 信中提到,OpenAI没有在其员工反诋毁条款中为向SEC披露证券违规行为创建豁免。这些过于广泛的协议违反了长期以来保护举报人的联邦法律和法规,旨在让希望匿名揭露公司严重信息的员工不受报复。 其中一位举报人匿名表示,这些合同传达了一个信息,即“我们不希望员工与联邦监管机构交谈”。他认为,如果人工智能公司保护自己免受审查和异议,就无法建立安全且符合公众利益的技术。 OpenAI发言人汉娜·王在一份声明中表示:“我们的举报人政策保护员工进行受保护披露的权利。此外,我们认为对这项技术进行严格辩论至关重要,并且已经对我们的离职流程进行了重要更改,删除了反诋毁条款。” 举报人的信件发布之际,人们担心OpenAI,这个最初以慈善使命为起点的非营利组织,在创造技术时将利润置于安全之上。《华盛顿邮报》周五报道称,OpenAI为了赶上公司领导人设定的5月发布日期,匆忙推出了最新的AI模型ChatGPT,尽管员工担心公司没有遵守自己的安全测试协议,从而使其AI可能免受灾难性危害,例如教用户制造生物武器或帮助黑客开发新型网络攻击。对此,OpenAI发言人林赛·赫尔德表示,公司并没有在安全流程上走捷径,尽管我们认识到发布会对团队来说压力很大。 科技公司的严格保密协议长期以来让员工和监管机构感到困扰。在#MeToo运动和因乔治·弗洛伊德被谋杀引发的全国性抗议活动期间,员工警告说,这些法律协议限制了他们报告性行为不端或种族歧视的能力。同时,监管机构担心这些条款会让科技员工无法向他们举报不透明的科技行业中的不当行为,特别是在有指控称公司算法促进了破坏选举、公共卫生和儿童安全的内容的情况下。 人工智能的快速发展加剧了政策制定者对科技行业权力的担忧,促使他们呼吁加强监管。在美国,人工智能公司在很大程度上处于法律真空状态,政策制定者表示,他们无法在没有举报人帮助的情况下有效地制定新的人工智能政策,举报人可以帮助解释快速发展的技术带来的潜在威胁。 爱荷华州参议员查克·格拉斯利在向《华盛顿邮报》发表的声明中表示:“OpenAI的政策和做法似乎对举报人说出和获得保护性披露补偿的权利产生了寒蝉效应。为了让联邦政府在人工智能方面保持领先,OpenAI的保密协议必须改变。” 举报信的一份副本已发送给SEC主席加里·根斯勒,并抄送给国会。《华盛顿邮报》从格拉斯利办公室获得了举报人信件。 信中提到的正式投诉已于6月提交给SEC。代表OpenAI举报人的律师斯蒂芬·科恩表示,SEC已对此投诉做出回应。 尚不确定SEC是否已展开调查,该机构拒绝置评。 信中称,SEC必须采取“迅速而有力”的措施来解决这些非法协议,因为它们可能与整个人工智能行业相关,并可能违反去年10月白宫行政命令,要求人工智能公司安全开发技术。 “任何此类执法努力的核心在于认识到内部人士必须自由地向联邦当局报告关切,并获得应有的补偿。”信中写道。“员工处于检测和警告行政命令中提到的各种危险的最佳位置,也最有能力帮助确保人工智能造福人类,而不是产生相反的效果。” 科恩表示,这些协议威胁员工如果根据商业秘密法向联邦当局举报法律违规行为,将受到刑事起诉。员工被指示对公司信息保密,并受到“严厉制裁”的威胁,但没有承认他们有向政府报告此类信息的权利。 “在人工智能的监督方面,我们才刚刚开始。”科恩说。“我们需要员工挺身而出,我们需要OpenAI保持透明。” 信中称,SEC应要求OpenAI提供所有包含保密条款的就业、离职和投资者协议,以确保它们不违反联邦法律。联邦监管机构应要求OpenAI通知所有过去和现在的员工公司犯下的违规行为,并通知他们有权向SEC匿名举报任何违法行为。根据举报人的信件,SEC应根据SEC法律对OpenAI每一份不当协议处以罚款,并指示OpenAI纠正其过去行为的“寒蝉效应”。 包括Facebook举报人弗朗西斯·豪根在内的多名科技公司员工已向SEC提交了投诉,SEC在2008年金融危机后设立了举报人计划。 旧金山律师克里斯·贝克表示,与硅谷使用保密协议“垄断信息”的斗争一直是场持久战。他在12月为谷歌员工赢得了一笔2700万美元的和解金,后者声称科技巨头使用繁琐的保密协议阻止举报和其他受保护的活动。他说,现在科技公司越来越多地通过巧妙的方法来阻止言论。 “雇主们了解到,泄密的代价有时远远超过诉讼的成本,所以他们愿意承担风险。”贝克说。
Author: aitrendtrackers@rengongzhineng.io
Mistral NeMo:最新的小型顶尖模型。与NVIDIA合作打造的12B模型,具有128k的上下文长度,并在Apache 2.0许可证下发布
今天,Mistral NeMo正式发布,这是一个与NVIDIA合作打造的12B模型。Mistral NeMo拥有高达128k标记的大型上下文窗口,其推理能力、世界知识和编程准确性在同类规模中达到了最先进的水平。由于采用标准架构,Mistral NeMo使用起来非常方便,可以无缝替换任何使用Mistral 7B的系统。 为了促进研究人员和企业的采用,预训练的基础模型和指令调优检查点都在Apache 2.0许可证下发布。Mistral NeMo通过量化感知训练,实现了在FP8推理下无性能损失。 下表比较了Mistral NeMo基础模型与最近两个开源预训练模型Gemma 2 9B和Llama 3 8B的准确性。 多语言模型的普及Mistral NeMo专为全球多语言应用而设计。它经过功能调用训练,具有大上下文窗口,在英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语等语言上表现特别强劲。这是让前沿AI模型普及到每个人手中的重要一步,涵盖了人类文化的各种语言。 Mistral NeMo在多语言基准上的表现图1:Mistral NeMo在多语言基准上的表现。 更高效的分词器——TekkenMistral NeMo使用了新的分词器Tekken,基于Tiktoken训练,覆盖100多种语言,比之前的Mistral模型使用的SentencePiece分词器更有效地压缩自然语言文本和源代码。特别是在压缩源代码、中文、意大利语、法语、德语、西班牙语和俄语方面,其效率提升了约30%;在压缩韩语和阿拉伯语方面,其效率分别提升了2倍和3倍。与Llama 3的分词器相比,Tekken在约85%的语言中表现更佳。 Tekken压缩率图2:Tekken压缩率。 指令微调Mistral NeMo经历了高级微调和对齐阶段。与Mistral 7B相比,它在遵循精确指令、推理、处理多轮对话和生成代码方面表现更佳。 Mistral NeMo指令调优模型的准确性表2:Mistral NeMo指令调优模型的准确性。评估由GPT4o在官方参考资料上进行。 链接基础模型 (https://huggingface.co/mistralai/Mistral-Nemo-Base-2407)和指令模型(https://huggingface.co/mistralai/Mistral-Nemo-Instruct-2407)的权重托管在HuggingFace。现在可以通过mistral-inference试用Mistral NeMo,并通过mistral-finetune进行适配。Mistral NeMo在la Plateforme上以open-mistral-nemo-2407的名称展示,还作为NVIDIA NIM推理微服务打包在容器中,可在ai.nvidia.com获取。
Google探索生成式AI如何支持学习
Google for Education:让生成式AI助力教学 鉴于教育在人的发展中具有关键作用,任何利用生成式AI来提升学生的教学过程,都必须以深思熟虑和协作的方式进行。 因此,Google for Education在利用生成式AI功能时,优先考虑教师、学生、家长和管理员的意见。通过倾听社区的需求,Google for Education能够开发出真正对学生和教育者有帮助的产品。为此,Google与负责AI(RAI)和技术与社会研究团队合作,积极与高中生及其家长互动,了解生成式AI如何影响他们的学习体验。 家长和学生对生成式AI支持学习的反馈 实时反馈给家长:通过提供即时的学习情况窗口,家长可以更快地介入需要帮助的地方,了解他们是否施加了过大压力,并知道未来应该关注的重点。 增强对不熟悉科目的学习:生成式AI可以补充课堂教学,帮助学生深入了解新的学科内容,提供额外的背景知识。 定制学习路径:生成式AI可以分析个人的学习模式,为有学习差异的学生定制多种学习路径,个性化教育材料,考虑到认知能力。 教师永远是课堂的核心 尽管生成式AI将在教育中扮演重要角色,但人类教育者仍然是不可替代的。生成式AI可以增强而非削弱学习,因此,制定保护措施和保持透明度对于使生成式AI成为教育中强大的工具至关重要。 将“教师参与”作为核心理念,Google for Education在构建和设计产品时会考虑这一点,指导功能选择和安全措施的制定。Google for Education始终优先与教育者和学校合作,通过紧密的反馈循环在整个开发过程中保持联系。 有了生成式AI的辅助,教师能够更好地满足学生的多样化需求和偏好,节省在行政任务上的时间,从而专注于他们最擅长的事情:启发和挑战学生,利用他们的经验和倾听、同理心等软技能,创造一个激发好奇心的安全环境。当最好的教师与最好的工具相结合时,他们的学生将变得不可阻挡。 正如一名参与研究的学生所说,“教师总是确保我没问题,确保我有最好的学习心态。我想如果没有他们,我现在可能会处在完全不同的地方。” 用Gemini帮助青少年在AI优先的未来中负责任且自信地学习 Google致力于让AI在课堂内外对每个人都有帮助。目标是为青少年提供必要的技能和工具,以便在有生成式AI的未来中茁壮成长,并教他们如何利用这项技术解锁创造力和促进学习。Gemini能够提供指导支持,帮助学生通过即时协助、练习材料和实时反馈与创意更自信地学习。通过与生成式AI的实践经验,学生将为AI驱动的未来做好准备。 去年,Google在咨询儿童安全和发展专家后,为使用个人Google帐户的青少年推出了负责任的Gemini体验,以帮助制定内容政策,并优先考虑安全。从那时起,Google采取了多项额外措施,确保负责任地将这项技术引入学生,包括与学习科学专家合作,测试青少年顾问小组,并承诺为所有教育用户提供额外的数据保护,免费提供服务,且Google不会使用聊天数据来改进AI模型。 在接下来的几个月里,符合最低年龄要求的青少年学生将在全球100多个国家的Google Workspace for Education帐户中免费使用Gemini。为确保学校始终掌控局面,Gemini默认对青少年关闭,直到管理员选择在管理控制台中将其作为附加服务开启。 青少年体验:负责任且实用的Gemini 与教育专家合作,确保安全与实用 Google开发了多种资源和培训,帮助学生、家长和教育者负责任且有效地使用生成式AI工具,包括一段关于青少年如何在学习中负责任使用AI的视频。 通过视频创作和阅读技巧培养提升学生参与度 促进更大的集成和协作 促进包容性学习和更积极的安全方法 Google致力于将最好的AI带入教育,并为学校定制体验,始终依赖教育者和机构的专业知识和指导。希望这些工具能帮助提升教育效果,专注于最重要的事情。参考此指南了解各项功能的可用性,包括访问所需的Google Workspace for Education版本或附加组件。
NVIDIA全面转向开源GPU内核模块
关键点概述 NVIDIA于2022年5月推出了带有双重GPL和MIT许可的开源Linux GPU内核模块R515驱动程序。最初的版本主要针对数据中心计算GPU,GeForce和工作站GPU则处于alpha状态。 当时,NVIDIA宣布后续版本将提供更强大和全功能的GeForce和工作站Linux支持,最终由NVIDIA开源内核模块取代闭源驱动程序。 NVIDIA GPU共享一个通用的驱动程序架构和功能集。无论是在桌面还是笔记本电脑上,使用的都是同一款驱动程序,这也是全球最先进的AI工作负载在云端运行的驱动程序。对NVIDIA来说,做到这一点至关重要。 经过两年的努力,NVIDIA的开源GPU内核模块在应用性能上达到了相同甚至更高的水平,并增加了许多新功能: 现在,NVIDIA决定在即将发布的R560驱动程序中全面转向开源GPU内核模块。 支持的GPU 并非所有GPU都兼容开源GPU内核模块。 对于NVIDIA Grace Hopper或NVIDIA Blackwell等尖端平台,必须使用开源GPU内核模块。这些平台不支持专有驱动程序。 对于Turing、Ampere、Ada Lovelace或Hopper架构的较新GPU,NVIDIA建议切换到开源GPU内核模块。 对于Maxwell、Pascal或Volta架构的较旧GPU,开源GPU内核模块不兼容,需继续使用NVIDIA专有驱动程序。 对于混合部署(同一系统中包含旧的和新的GPU),继续使用专有驱动程序。 如果不确定哪种驱动程序适合,NVIDIA提供了一个新的检测助手脚本,帮助选择合适的驱动程序。更多信息,请参阅本文后面的“使用安装助手脚本”部分。 安装程序变化 通常情况下,所有安装方法默认安装的驱动程序版本将从专有驱动程序切换到开源驱动程序。以下几种特定情况需要特别注意: 使用CUDA元包的包管理器 在使用包管理器安装CUDA工具包时,安装元包常用于此目的。安装顶级cuda包时,会同时安装CUDA工具包和相关的驱动程序。例如,在CUDA 12.5发布期间安装cuda包,会得到专有的NVIDIA驱动程序555以及CUDA工具包12.5。 从CUDA 12.6版本开始,流程发生了变化(见图2)。 使用运行文件 如果使用.run文件安装CUDA或NVIDIA驱动程序,安装程序会查询硬件并自动安装最适合系统的驱动程序。UI中还提供了选项,可以在专有驱动程序和开源驱动程序之间进行选择。 使用CUDA .run文件和ncurses用户界面时,现在会看到如下菜单: sqlCopy code┌──────────────────────────────────────────────────────────────────────────────┐ │ CUDA Driver │ │ [ ] Do not install any of the OpenGL-related driver files │ │ [ ] Do not install…
OpenAI推出GPT-4o Mini:轻量廉价的AI模型,为开发者赋能
OpenAI推出轻量版GPT-4o Mini,瞄准开发者市场 OpenAI发布了一款面向开发者的轻量版模型——GPT-4o Mini。它的成本显著低于完整版模型,且被认为比GPT-3.5更强大。 使用OpenAI的模型构建应用程序可能会产生高昂费用,许多开发者无法负担,转而选择更便宜的模型,如Google的Gemini 1.5 Flash或Anthropic的Claude 3 Haiku。现在,OpenAI也进入了轻量模型市场。 API平台产品负责人Olivier Godement在接受《The Verge》采访时表示,“GPT-4o Mini真正体现了OpenAI让AI更广泛可及的使命。如果我们希望AI能惠及世界每个角落、每个行业、每个应用,就必须让AI更加负担得起。” 从今天起,ChatGPT的免费、Plus和团队计划用户可以使用GPT-4o Mini替代GPT-3.5 Turbo,企业用户将在下周获得访问权限。这意味着ChatGPT用户将无法再选择GPT-3.5,但开发者仍可通过API使用GPT-3.5,直到它被逐步淘汰。 Godement表示,“我认为它会非常受欢迎。” 新的轻量模型还将在API中支持文本和视觉处理,公司表示它很快将能够处理所有多模态输入和输出,包括视频和音频。这意味着未来可能会有更强大的虚拟助手,能够理解旅行行程并提供建议。然而,这款模型主要用于简单任务,所以并不能廉价地打造类似Siri的高级助手。 在测量大规模多任务语言理解(MMLU)基准考试中,GPT-4o Mini取得了82%的成绩。MMLU是一项包含57个学科大约16,000道多项选择题的考试。首次引入时,大多数模型表现不佳,目的是因为之前的基准考试已经无法考验这些模型的能力。GPT-3.5在这一测试中得分70%,GPT-4o得分88.7%,Google声称其Gemini Ultra创下了90%的最高分。相比之下,竞争对手Claude 3 Haiku和Gemini 1.5 Flash的得分分别为75.2%和78.9%。 需要注意的是,研究人员对MMLU等基准测试持谨慎态度,因为不同公司对测试的实施方式略有不同,使得模型间的得分难以直接比较。此外,AI可能会在其数据集中已有这些答案,从而“作弊”,而且通常没有第三方评估者参与。 对于渴望廉价构建AI应用的开发者来说,GPT-4o Mini的推出为他们提供了新的工具。OpenAI让金融科技初创公司Ramp测试了该模型,使用GPT-4o Mini构建了一个从收据中提取费用数据的工具。用户可以上传收据照片,模型会自动整理数据。电子邮件客户端Superhuman也测试了GPT-4o Mini,用它创建了一个电子邮件回复自动建议功能。 目标是为开发者提供轻量且廉价的工具,帮助他们创建无法用更大、更昂贵模型实现的应用。许多开发者在面对高昂的计算成本时,会选择Claude 3 Haiku或Gemini 1.5 Flash,而非支付运行最强大模型的费用。 那么,OpenAI为何花了这么长时间才推出轻量版模型?Godement表示,这是因为公司的优先事项一直是打造更大更强的模型,如GPT-4,这需要大量的“人力和计算资源”。随着时间推移,OpenAI注意到开发者越来越倾向于使用小型模型,因此决定现在是投入资源开发GPT-4o Mini的最佳时机。 Godement补充道,“我认为它会非常受欢迎。无论是已经使用OpenAI所有AI的现有应用,还是此前因价格被拒之门外的许多应用。”
AI教母李飞飞创立的World Labs估值超10亿美元
🔑要点: 计算机科学家李飞飞(因其在计算机视觉领域的贡献,被誉为“AI教母”)四个月前创立了一家AI初创公司World Labs,现在该公司的估值已超过10亿美元。 World Labs正在开发一种能够增强推理和处理视觉数据的模型,使其具备类似人类的理解能力,能够理解物体的尺寸、位置和行为。 李飞飞的愿景不仅是“能看会说的AI”,而是“能做事的AI”。这些进展有望使机器人更高效地导航物理空间,变革医疗和制造等行业。 自4月创立以来,李飞飞完成了两轮融资,最近一轮由包括A16z和AI基金“Radical Ventures”在内的知名投资者领投,筹集了1亿美元。 🤔为什么值得关注: 在过去三个月,美国AI初创公司共获得了超过270亿美元的资金(约占所有初创公司资金的一半),而World Labs在短短四个月内就获得了1亿美元的融资,并达到10亿美元的估值,反映了风险投资公司越来越倾向于支持雄心勃勃的AI驱动初创公司。这一趋势可能受到OpenAI惊人且迅速的成功的推动,其在仅10个月内估值就超过了800亿美元。
Mistral 开源 MathΣtral 和 Codestral Mamba
Mathstral:数学领域的革命性AI工具 为了增强解决复杂多步骤逻辑推理的高级数学问题的能力,Mathstral正式发布 (https://huggingface.co/mistralai/mathstral-7B-v0.1),旨在为科学界贡献力量。这次发布是我们支持学术项目的更广泛努力的一部分,Mathstral是在我们与Project Numina合作的背景下生产的。 类似于艾萨克·牛顿在他那个时代的地位,Mathstral依托于Mistral 7B,专注于STEM(科学、技术、工程和数学)学科。在各种行业标准基准测试中,它在同类规模中实现了最先进的推理能力。具体来说,它在MATH测试中达到了56.6%的成绩,在MMLU测试中达到了63.47%的成绩,并且展示了Mathstral 7B和Mistral 7B在不同学科中的MMLU表现差异。 Mathstral 7B的学科细分表现 Mathstral是为特定用途构建模型时实现的卓越性能/速度平衡的又一个例子——这种开发理念在la Plateforme中积极推广,特别是在其新的微调功能中。 Mathstral 7B详细基准测试 Mathstral在推理时间计算增加的情况下能够显著提高结果:使用多数投票法时,Mathstral 7B在MATH测试中得分为68.37%,在64个候选者中使用强奖励模型时得分为74.59%。 Mathstral是一个指令模型——可以按其文档使用或微调。其权重托管在HuggingFace上。现在可以使用mistral-inference试用Mathstral,并使用mistral-finetune进行调整。 Codestral Mamba:革新AI架构的下一步 在发布Mixtral系列之后,Codestral Mamba是Mistral研究和提供新架构的又一努力成果。它可供免费使用、修改和分发,希望为架构研究开辟新的视角。Codestral Mamba的设计得到了Albert Gu和Tri Dao的帮助。 与Transformer模型不同,Mamba模型具有线性时间推理的优势,并且理论上能够建模无限长度的序列。它允许用户与模型进行广泛互动,并能快速响应,无论输入长度如何。这种效率对于代码生产力用例尤为重要——因此,Mistral训练了具有高级代码和推理能力的模型,使其能够与SOTA基于Transformer的模型表现相当。 详细的Codestral Mamba基准测试 Codestral Mamba (https://console.mistral.ai/)在上下文检索能力上的表现已经过测试,最高支持到256k个token。预计它将成为一个出色的本地代码助手! 可以使用mistral-inference SDK部署Codestral Mamba,该SDK依赖于Mamba的GitHub存储库中的参考实现。该模型还可以通过TensorRT-LLM部署。对于本地推理,请关注llama.cpp的支持。原始权重可从HuggingFace下载。这是一个指令模型,具有7,285,403,648个参数。 为了方便测试,Codestral Mamba已在la Plateforme上提供(codestral-mamba-2407),以及其“大姐”Codestral 22B。虽然Codestral Mamba是根据Apache 2.0许可提供的,Codestral 22B则根据商业许可提供自我部署或社区许可供测试使用。
Project Oscar:谷歌的开源AI维护助手革命
Project Oscar (https://go.googlesource.com/oscar/+/refs/heads/master/README.md),又称为开放超级大规模抓取聚合语料库,是谷歌宣布的一个开源项目,由一组研究人员和工程师领导。重要成员包括Pedro Ortiz Suarez、Julien Abadji、Rua Ismail、Laurent Romary和Benoît Sagot。 该项目始于2019年,自那时起得到了不同机构的资助和支持。Inria(ALMAnaCH项目团队)和PRAIRIE研究所提供了初始资金。2023年,DFKI和德国联邦经济事务和气候行动部通过OpenGPT-X项目加入,成为主要支持者。 曼海姆大学也在2022年和2023年初提供了资金支持。Common Crawl为Project Oscar提供原始网页数据。其他合作伙伴,如曼海姆大学的数据与网络科学小组和慕尼黑大学,也作出了贡献。这些合作伙伴的参与使得Project Oscar成为AI和ML发展的重要资源。 这个项目到底是干什么的? “该项目主要提供大量未标注的原始数据,常用于大型深度学习模型的预训练。OSCAR项目开发了高性能的数据管道,专门用于分类和过滤大量网页数据,”组织的介绍页面解释道。 简单来说,它用于收集和清理网页数据,并创建自动化代理来协助开源维护任务。这个过程可以用166种不同的语言进行,适用于全球用户。 Project Oscar的主要使命是为LLMs提供分析自然语言输入的数据集,如问题报告或维护者指示。这些LLMs是训练AI模型的数据集,是语言翻译服务、ChatGPT等聊天机器人和其他AI驱动工具的基础。 Google如何使用Oscar? Google的Go编程语言团队使用来自Project Oscar的AI代理来管理错误报告和与贡献者的互动。这个自动化系统帮助他们处理问题报告并实时与用户沟通。谷歌宣布,“在谷歌,我们领导许多开源项目,维护这些项目需要大量工作! “因此,我们创建了Project Oscar,一个AI代理的参考,用于帮助开源项目的维护,从Go项目开始,这个项目有超过93,000个提交和2,000个贡献者,但你可以想象支持各种不同的项目。我们正在开源Project Oscar,所以请查看并告诉我们你希望AI代理能做什么。” 这对科技有何好处? 使用开源意味着更多跨行业、跨世界的合作机会。开发人员能够不断改进和使用该项目。 此外,通过Project Oscar创建的谷歌AI代理处理像错误跟踪这样的日常任务,减少开发人员的工作量,让他们专注于项目的创意部分。这种自动化有助于加快软件开发过程。 在Github上,开发者可以发送邮件给组织提供反馈或提问,也可以访问项目代码。“Oscar与许多以开发为中心的LLMs用途不同,它并不试图增强或取代代码编写过程。 “毕竟,写代码是写软件中有趣的部分。相反,Oscar的想法是专注于不那么有趣的部分,如处理传入问题、将问题匹配到现有文档等,”谷歌提到。
Google如何构建AlphaFold 3来预测所有生命分子的结构和相互作用
自2020年推出以来,已有超过200万研究人员在疫苗开发、癌症治疗等工作中使用了Google DeepMind的AlphaFold 2模型,解决了困扰研究人员超过50年的难题。在帮助科学家预测了数亿种结构后,团队本可以功成身退。然而,他们并没有停下脚步,而是开始了AlphaFold 3的研发。这款新模型由Google DeepMind和Isomorphic Labs团队于今年5月推出,不仅能预测蛋白质折叠结构,还能预测包括DNA、RNA和配体(与蛋白质结合的小分子)在内的所有生命分子的结构和相互作用。 “我们在AlphaFold 2上解决了蛋白质折叠这个几十年的老问题,但从最近的高影响力研究来看,研究人员已经超越了这一点,”Google DeepMind的研究科学家Jonas Adler表示。“他们的结论往往涉及更详细的内容,比如小分子的结合或RNA,这是AlphaFold 2无法做到的。实验研究已经进展到了一个新前沿,为了赶上生物学和化学的最新进展,我们必须能够覆盖所有生物分子。” 这些生物分子包括配体,占所有药物的约一半。Isomorphic Labs的研究负责人Adrian Stecula表示:“在Isomorphic Labs,我们看到了AlphaFold 3在合理药物设计中的巨大潜力,并且已经在日常工作中使用它。新模型解锁了回答诸如‘蛋白质如何与DNA和RNA相互作用?’以及化学修饰对蛋白质结构的影响等问题的能力。” 增加这些额外的分子类型引入了数量级更多的可能组合。“蛋白质是非常有序的,例如,只有20种标准氨基酸,”Jonas说。“而对于小分子来说,空间是无限大的——它们几乎可以做任何事情,非常多样化。” 构建一个包含所有能力的数据库是不可能的,因此推出了AlphaFold Server,这是一种免费工具,允许科学家输入自己的序列,AlphaFold可以为其生成分子复合物。自5月推出以来,研究人员已经使用它生成了超过100万个结构。 “它就像分子复合物的谷歌地图,”Google DeepMind的研究工程师Lindsay Willmore说。“任何不懂编程的用户都可以复制并粘贴他们的蛋白质、DNA、RNA序列或小分子的名称,按一下按钮,等待几分钟,他们就能看到结构和置信度指标,从而评估他们的预测。” 为了让AlphaFold 3处理更广泛的生物分子范围,团队大幅扩展了新模型的训练数据,包括DNA、RNA、小分子等。“我们能够说,‘让我们训练所有现有的数据集,看看能走多远,’”Lindsay说。“结果表明,我们可以走得很远。” AlphaFold 3的另一个重大变化是生成结构的模型架构的转变。AlphaFold 2使用的是复杂的基于几何的模块,而AlphaFold 3采用的是基于扩散的生成模型,这大大简化了模型处理所有新分子类型的方式。 但这一变化也带来了新问题:由于蛋白质的“无序区域”没有包含在训练数据中,扩散模型会尝试创建一个不准确的“有序”结构,而不是预测无序区域。因此,团队转向AlphaFold 2,它已经非常擅长预测哪些相互作用是无序的,哪些不是。“我们使用AlphaFold 2的预测结构作为AlphaFold 3的蒸馏训练,让AlphaFold 3学习预测无序,”Lindsay说。 “我们有一句话:‘相信螺旋面,拒绝意大利面,’”Jonas补充道。 AlphaFold 3的一个预测示例。中央是蓝色紧密卷曲的螺旋结构,周围是橙色松散交织的结构,类似于意大利面。这些颜色代表模型预测的置信度。 团队期待看到研究人员如何使用AlphaFold 3推动基因组学研究、药物设计等领域的发展。 “看到我们取得的进展,真是令人难以置信,”Jonas说。“过去非常困难的事情现在变得很容易,过去不可能的事情现在变得可能——虽然这里仍然有非常难的问题需要解决,但我们对AlphaFold 3能帮助解决这些问题充满期待。”
迈克尔的37岁:时间的感悟与人生的智慧
本月初,Michael在科罗拉多州做了一次演讲。他到得很晚,但没关系,因为他知道自己将住进一家非常豪华的酒店,这家酒店他之前也住过。走到房间时,他被酒店的破旧状态震惊了。家具显得老旧,墙壁上有刮痕,装饰也疲惫不堪,甚至房间里的电子设备也很陈旧。 他觉得很奇怪,这家酒店以前可是崭新时尚的。然后他意识到:那确实是以前。时间过去了。也许他第一次住进这家酒店时才二十多岁呢!接着,他突然明白:自己也不再年轻时尚了,自己也被这些岁月磨平了棱角。 这让Michael想起塞内卡的一段经历。塞内卡回到他成长的房子时,感叹那些逐渐凋零的树木。这些树是他亲手种下的,现在却因年老而枯死,而他自己也没好到哪去。 Michael正在写这篇生日帖子——这是他的第37个生日,也是他系列中的第12篇帖子。虽然他在书巡演中染上了新冠,脑袋有点迷糊,但他还是能做些简单的算术:出生时的预期寿命大约是75年,也就是说他已经走过了一半的路程。尽管现在的医疗水平更高,但这个认知还是让他很震惊,就像在那个酒店走廊里感受到的那种感觉。 尽管如此,Michael并不觉得自己老了。恰恰相反,他觉得自己正处于创作巅峰期。他热爱自己的生活和工作。如果有人告诉他现在是生命的中点,他会心存感激。如果有人说这就是终点,他也会很满足——这37年来,他获得的远超过37年的价值。 在这样的心境下,Michael想分享一些今年及以往学到的教训(参考往年的第36篇、第35篇、第34篇、第33篇、第32篇、第31篇、第30篇、第29篇、第28篇、第27篇和第26篇)。 4b. 伏尔泰的说法Michael也很喜欢:你做出的最重要决定就是保持好心情。 18b. Michael真正想说的是,看看专业人士——无论是旅行、银行、买车还是其他事情——如何做事,看看你能学到什么效率。看看哪些假设可以被质疑。 19b. 这是约翰·斯坦贝克谈到的“过度工作的无纪律性”。他说,这是最虚假的经济学。 20b. 前几天,他的水瓶里有恰到好处的冰块,水和冰混合成了冰沙。他意识到这就是伊壁鸠鲁追求的那种快乐。这不多,但非常美妙。 没开始计时?”关键是:事情需要时间。前面的时间(因为开始太慢)、中间的时间(因为回复太慢)或最后的时间(因为处理太慢)都会让事情变得更慢。别人做事的时间你无法控制,但你可以控制自己做事的时间。 34b. 我们应该以不同方式做很多事情吗?政府犯了很多无法辩解的错误吗?很多假设被证明是错误的吗?是的。但无法辩解的现实是,我们本可以也应该做得更多,当我们将这个时期视为历史时刻时,这就是我们的孩子和孙辈会对我们说的。 36b. Michael无法回报罗伯特·格林为他所做的一切和打开的门,但他可以将其传递下去。