Runway一贯致力于推动生成式AI驱动的创意边界,他们的最新模型Runway Gen-3也不例外。这个新的进展展示了一些我们所见过的最具电影感、最惊艳和最逼真的AI视频。(https://runwayml.com/ai-tools/gen-3-alpha/) 在本文中,我们将探讨Runway Gen-3的卓越特性、相对于前代模型的改进,以及其对电影制作、广告、媒体生产、教育、游戏和虚拟现实开发等各个行业的潜在影响。 什么是Runway Gen-3 Alpha? Runway推出了Gen-3 Alpha,这是一款突破性的文本到视频AI模型,设定了视频创作的新标杆。这款先进的模型是Runway视频生成技术的第三代,能够以令人印象深刻的速度和精度生成高分辨率、细节丰富且一致性强的视频。 模型从简单提示生成高质量视频的能力展示了其创造性灵活性。艺术家可以探索多种概念和风格,知道模型可以处理复杂的视觉需求。 这部动漫风格的视频突显了Gen-3在角色参照和细粒度时间控制方面的能力(能够精确管理和操控事件的时序),其一致的艺术方向和流畅的镜头运动尤为显著。对水流和反射等小细节的关注增加了真实感和参与感。 Runway Gen-3的发布时间? 在短暂的alpha测试阶段后,Runway已经推出了Gen-3 Alpha供用户试用。截至本文更新时,你现在可以注册账户并订阅开始使用该工具。 Runway Gen-3的费用是多少? Gen-3模型目前仅对付费订阅者开放。Runway采用按需付费模式,根据GPU使用情况收费,使用户无需进行重大硬件投资即可获得必要的计算能力。 共有几个使用层级——“基础”层是免费的(有使用限制),此外还有“标准”(每月12美元)、“专业”(每月28美元)和“无限”(每月76美元)选项。 Runway Gen-3与Sora AI的对比 Runway Gen-3和OpenAI的Sora是生成式视频生成领域最先进的模型之一。 Runway Gen-3基于视觉转换器、扩散模型和多模态系统实现高保真度和时间一致性。扩散模型通过逐步去噪来精炼图像,产生逼真的高清视觉效果。Gen-3实现了文本到视频和图像到视频的功能。 示例提示: 近距离拍摄在繁忙的幻想市场夜晚飞舞的火焰精灵。 火焰的逼真运动、与周围物体的互动以及真实的阴影和反射展示了模型生成高分辨率内容的能力,增强了输出的电影质量。 技术角度的比较 Sora,由OpenAI开发,使用类似Midjourney的扩散模型技术,从噪声开始,逐步精炼直到生成连贯的场景。基于Transformer架构,Sora将视频表示为数据块集合,逐帧学习文本描述与视觉表现之间的复杂映射。 Sora能够处理各种时长、分辨率和纵横比的多样化视觉数据。Sora AI在动态场景创建方面表现出色,展示了对光照、物理和摄像技术的敏锐理解。 Gen-3的关键特性 根据Runway的官方公告(以及视频证据),Gen-3在早期模型基础上取得了重大进步: 高保真度视频生成 Runway Gen-3展示了视频质量的改进。它以Gen-2的两倍速度生成视频,同时保持卓越的保真度。Gen-3在创建复杂动作如跑步和行走方面表现出色,得益于先进的AI算法准确渲染人类运动和解剖结构。 先进控制 Runway Gen-3引入了先进的控制功能,极大地提高了视频生成的创造性和精确性。模型对角色参照的定制使用单词,允许创作者在不同项目中重用这些参照,使设计的角色外观一致。 示例提示: 一名宇航员在两栋建筑物之间行走。 用户友好界面 Runway Gen-3采用了更新的用户界面,适合初学者和专业人士。它提供直观且用户友好的体验,简化了各种技术水平用户的视频生成过程。 Gen-3的技术创新 模型以两倍于前代版本的速度生成视频,并引入先进特性,如单词角色参照的可定制模型。解决了AI视频生成中的复杂挑战,如创建真实的动作并保持视频的一致性。 示例提示: 一个中年秃头男子在一顶卷发假发和太阳镜突然掉到他头上时变得高兴。 Runway工具套件的集成 Runway Gen-3与其他Runway AI工具集成,提供如文本到视频、图像到视频和高级视频编辑工具的功能,用于创建复杂和定制的视频。 潜在应用及用例…
Open-TeleVision:开放源码的沉浸式遥操作系统
Open-TeleVision:增强机器人学习的沉浸式遥操作系统 (https://robot-tv.github.io/) 遥操作是一种强大的方法,用于收集机器人示范学习所需的在机数据。遥操作系统的直观性和易用性对于确保高质量、多样性和可扩展的数据至关重要。为此,我们提出了一种沉浸式遥操作系统Open-TeleVision,允许操作员以立体方式主动感知机器人的周围环境。此外,该系统将操作员的手臂和手的动作镜像到机器人上,创造出一种仿佛操作员的意识传送到机器人实体中的沉浸式体验。 我们通过收集数据并在两个不同的人形机器人上训练四个长距离、精确任务的模仿学习策略来验证我们系统的有效性。这些任务包括:罐头分类、罐头插入、折叠和卸载,并在现实世界中进行部署。 核心优势: 通过Open-TeleVision系统,我们不仅提高了遥操作的沉浸感和精确性,还为机器人学习提供了丰富而可靠的数据来源,推动了机器人技术的发展和应用。
Kyutai推出开源革命性实时多模态基础模型Moshi,震撼科技界
在震撼科技界的惊人宣布中,Kyutai推出了Moshi,这是一款革命性的实时本地多模态基础模型。该创新模型不仅反映了OpenAI在5月展示的GPT-4o的部分功能,还在某些方面超越了它。https://kyutai.org/ Moshi旨在理解和表达情感,具备多种功能,包括以不同口音(如法语)说话。它可以聆听和生成音频和语音,同时保持文本思维的流畅衔接。Moshi的一个突出特点是能够同时处理两个音频流,使其可以同时聆听和讲话。这种实时交互基于文本和音频的联合预训练,利用了Kyutai开发的7B参数语言模型Helium的合成文本数据。 实验性AI研究快讯 Kyutai强调了负责任的AI使用,通过水印技术检测AI生成的音频,这是目前正在进行中的功能。决定将Moshi作为开源项目发布,体现了Kyutai对透明性和AI社区合作开发的承诺。 Moshi由一个7B参数的多模态语言模型驱动,处理语音输入和输出。模型采用两通道I/O系统,同时生成文本令牌和音频编解码器。基于Kyutai内部开发的Mimi模型,语音编解码器具备300倍压缩率,捕捉语义和声学信息。 训练过程与部署效率 Moshi的训练过程非常严格,细调了100,000个带有情感和风格注释的高细节转录文本。支持70种不同情感和风格的文本到语音引擎在由一名叫Alice的授权配音员录制的20小时音频上进行了细调。该模型设计适应性强,可以在不到30分钟的音频中进行细调。 Moshi的部署展示了其高效性。演示模型托管在Scaleway和Hugging Face平台上,能够在24GB VRAM下处理两个批次。它支持多种后端,包括CUDA、Metal和CPU,并通过Rust优化推理代码。增强的KV缓存和提示缓存预计将进一步提高性能。 未来计划与开源愿景 展望未来,Kyutai对Moshi有着雄心勃勃的计划。团队打算发布技术报告和开源模型版本,包括推理代码库、7B模型、音频编解码器和完整的优化栈。未来版本如Moshi 1.1、1.2和2.0将基于用户反馈改进模型。Moshi的许可旨在尽可能宽松,以促进广泛采用和创新。 总结 Moshi展示了小而专注的团队在AI技术上取得非凡进展的潜力。该模型为研究辅助、头脑风暴、语言学习等开辟了新途径,展示了AI在设备上部署时的非凡灵活性和变革力量。作为开源模型,它邀请了广泛的合作与创新,确保这项突破性技术的好处惠及所有人。
Meta挑战AI效率竞赛:发布采用多令牌预测的新型预训练模型
Meta在提高人工智能效率的竞赛中扔下了挑战书。这家科技巨头周三发布了预训练模型,利用了一种新颖的多令牌预测方法,可能改变大型语言模型(LLM)的开发和部署方式。 这种新技术首次在Meta今年4月发布的研究论文中概述,与传统的仅预测序列中下一个词的LLM训练方法不同。Meta的方法要求模型同时预测多个未来词汇,承诺提高性能并大幅缩短训练时间。 Meta的多令牌预测方法突破了传统单一词汇预测的限制,使模型能够更好地理解语言结构和上下文,从而在各种任务中表现出色。从代码生成到创意写作,这种方法的潜在应用广泛且影响深远,有望缩短AI与人类语言理解之间的差距。 掌控当今威胁:机器规模应对策略 随着AI模型规模和复杂性的不断增长,其对计算能力的巨大需求引发了成本和环境影响方面的担忧。Meta的多令牌预测方法可能提供了一种遏制这种趋势的方法,使先进的AI更加可及且可持续。 民主化AI:高效语言模型的承诺与风险 这种新方法的潜力不仅仅在于效率的提升。通过一次预测多个令牌,这些模型可能会对语言结构和上下文有更细致的理解。这可以改进从代码生成到创意写作的任务,可能弥合AI与人类语言理解水平之间的差距。 然而,这种强大的AI工具的民主化是一把双刃剑。虽然这可以为研究人员和小型公司提供公平的竞争环境,但也降低了潜在滥用的门槛。AI社区现在面临着开发健全的伦理框架和安全措施的挑战,以跟上这些快速的技术进步。 Meta决定在Hugging Face平台上以非商业研究许可证发布这些模型,这与公司对开放科学的承诺一致。但这也是在日益竞争激烈的AI领域中的一个战略举措,开放性可以带来更快的创新和人才获取。 初步发布集中在代码补全任务上,反映了AI辅助编程工具日益增长的市场。随着软件开发与AI的日益紧密结合,Meta的贡献可能加速人类与AI协作编码的趋势。 AI军备竞赛升温:Meta在科技战场上的战略布局 然而,这一发布并非没有争议。批评者认为,更高效的AI模型可能加剧关于AI生成虚假信息和网络威胁的现有担忧。Meta试图通过强调许可证仅限于研究用途来解决这些问题,但有关这些限制措施能否有效执行的疑问仍然存在。 多令牌预测模型是Meta发布的一系列AI研究成果的一部分,包括图像到文本生成和AI生成语音检测方面的进展。这种综合方法表明,Meta不仅在语言模型方面,而且在多个AI领域中都在定位自己为领导者。 随着这一声明尘埃落定,AI社区不得不应对其影响。多令牌预测会成为LLM开发的新标准吗?它能否在不影响质量的情况下兑现其效率的承诺?它将如何影响更广泛的AI研究和应用领域? 研究人员在论文中承认了他们工作的潜在影响,指出:“我们的方法提高了模型的能力和训练效率,同时允许更快的速度。”这一大胆声明为AI发展的新阶段奠定了基础,在这个阶段,效率和能力将齐头并进。 有一点是明确的:Meta的最新举措为已经炙手可热的AI军备竞赛添加了新的燃料。随着研究人员和开发人员深入这些新模型,人工智能故事的下一个篇章正在实时书写。
三星预期第二季度运营利润将飙升至75亿美元,同比增15倍
三星预期第二季度运营利润将飙升至75亿美元,同比增15倍 尽管季度初表现非常出色,投资者仍担心三星在与SK海力士等较小竞争对手的市场地位。相比之下,SK海力士的股价大幅上涨,而三星未能获得NVIDIA对其最新芯片的批准,这令投资者感到担忧。
微软最新一轮裁员波及全球多个团队
微软最新裁员波及多个团队和地区 本周,微软再次实施裁员,这是雷德蒙德科技巨头今年实施的最新一轮裁员。 裁员影响了多个团队和地区。微软拒绝提供被裁员工的具体数量。 受到影响的员工在LinkedIn上的帖子显示,这次裁员主要涉及产品和项目管理岗位的员工。 “组织和人事调整是我们业务管理中必要且常规的一部分,”一位发言人在声明中表示。“我们将继续优先考虑和投资于未来的战略增长领域,以支持我们的客户和合作伙伴。” 微软2024财年的截止日期是6月30日。在新财年开始时,微软重组部分业务并不罕见。 上个月裁员情况 上个月,微软在包括Azure云部门和HoloLens混合现实组织在内的多个领域裁员约1000人。 今年1月,在完成对动视暴雪公司690亿美元的收购后,微软在其游戏部门裁员近2000人,这是该公司有史以来最大的一笔收购。 裁员背景 随着微软试图在资本支出增加的情况下维持其利润率,这些裁员也随之而来。增加的资本支出旨在提供训练和部署支持AI应用程序模型所需的云基础设施。 疫情期间,微软的员工人数大幅增加,但在过去两年中趋于平稳。根据GeekWire基于监管文件和财报电话会议的数据,截至2023年年底,微软在全球约有22.7万名员工,低于一年前的23.2万名。 根据Layoffs.fyi的数据,今年到目前为止,已有超过10万名科技工作者被裁员。去年,各公司裁员超过26万人。
六大Pixel新AI功能提升使用体验
去年,我们重点介绍了七个由AI驱动的Pixel功能,从魔术橡皮擦到真实色调。自那以来,我们取得了很大进展。以下是我们的人工智能工作如何让Pixel手机更加实用的六种新方式。 1. 用Gemini快速总结网页 如果你只需要快速了解一篇英文网页的要点,Gemini可以帮助你节省滚动和浏览的时间。当你启用Gemini时,它可以扫描整个页面的文本,并创建一个简短的摘要,让你在几秒钟内阅读主要要点。 使用方法:在安卓设备上,你可以选择使用Gemini作为你的移动助手。设置好Pixel 8、Pixel 8a或Pixel 8 Pro后,在Google Chrome中打开一个网页并长按电源按钮以唤出Gemini。然后在屏幕出现覆盖层时,要求Gemini总结文章内容。你也可以通过说“Hey Google”来语音激活Gemini。 2. 录制视频后调整声音,使用Audio Magic Eraser 你在录制给好友的生日祝福视频时,背景中的狗叫声破坏了你最喜欢的那一条。Audio Magic Eraser可以降低狗叫声以及其他你不想听到的背景声音,让你发送一个你声音最佳的视频。 使用方法:在Pixel 8、Pixel 8a或Pixel 8 Pro上录制视频。然后进入Google相册,选择视频并点击“编辑”。你会在屏幕底部找到“视频”、“裁剪”、“音频”、“调整”等选项。点击“音频”以调出Audio Magic Eraser功能。它会识别视频中的不同声音类别,如人声、风声或自然声音。选择“自动”让Pixel为你优化音频,或选择并调整音频,降低特定的声音。满意后,点击“完成”。 3. 用Circle to Search获取更多屏幕信息 假设你在手机上看YouTube Shorts视频、阅读文章或浏览屏幕上的内容,你想了解更多信息。现在,在Pixel 6及以上设备上,你可以点击、突出显示、圈出或涂抹屏幕上的任何地方以获取更多信息,无需切换应用程序。 使用方法:按住导航栏,然后圈出或突出显示你想了解更多的视频、图像或文本。你还可以在屏幕底部的搜索栏中添加更多上下文,例如“我在哪里可以买到类似的衬衫?”以优化搜索结果。 4. 用Gboard校对功能保持短信无错 如果你像我一样打字很快,并在注意到尴尬的拼写错误之前就点击发送,那么由gen AI驱动的Gboard校对功能可以帮你。Gboard校对功能可以在你发送之前,一键消除拼写和语法或标点错误。 使用方法:在Pixel 8、Pixel 8a或Pixel 8 Pro上安装Gboard,然后草拟短信。如果功能发现错误,“修复”按钮会立即出现在建议栏中。点击按钮应用对文本的修正,确保你不需要发送后续澄清。你也可以通过点击Gboard上的字母A下的勾号图标自行触发校对。 5. 使用相机扫描并创建PDF文档 轻松将收据、合同或其他纸质文件创建为数字文档,以便存档、发送或共享。这在提交差旅费用或为报税季保存数字收据时非常方便。 使用方法:在Pixel 6或以上设备上打开Google云端硬盘。点击+新建,然后选择“扫描”或直接点击扫描文档图标,即可开始。如果需要在扫描时更好地控制框架,请使用手动模式,这样可以确定离文档的远近。如果只是想快速拍下收据,自动捕捉可以快速识别纸张边缘并为你扫描。你还可以为扫描添加多个页面,预览或删除页面,甚至清理文件上的污渍。按“完成”后,修改文件名并保存到云端硬盘。从那里,你可以发送、共享或下载扫描件。 6. 使用咳嗽和打鼾检测跟踪睡眠声音 想知道你在睡觉时是否经常咳嗽和打鼾?你的Pixel 8、Pixel 8a或Pixel 8 Pro可以告诉你。 使用方法:在Pixel设置中的数字健康和家长控制下,找到并点击睡眠时间模式。进入后,你会在每周摘要下看到咳嗽和打鼾信息。点击“允许访问”并切换打开咳嗽和打鼾检测。该功能不会存储原始音频;相反,频率会被预处理并转换为AI可解释的数字。将其与FitBit配对,可以全面了解你的睡眠习惯和模式,帮助你了解每晚的睡眠质量。
微软分享全新AI绕过技术“Skeleton Key”详情,并提供防护指南缓解Skeleton Key:新型生成式AI越狱技术
在生成式AI领域,所谓的越狱攻击(也称为直接提示注入攻击)是试图绕过AI模型预定行为的恶意用户输入。成功的越狱攻击可能会破坏由AI供应商在模型训练中内置的所有或大部分责任AI(RAI)防护措施,因此在AI堆栈的其他层中进行风险缓解是深度防御设计的重要选择。 在之前关于AI越狱攻击的博文中,提到AI越狱可能导致系统违反其操作员的政策、做出受用户不当影响的决策或执行恶意指令。 在本篇博文中,将详细介绍一种新发现的越狱攻击技术——Skeleton Key(骷髅钥匙)。在微软Build大会上以“主钥匙”之名简要提及。由于这种技术影响了多个经过测试的生成式AI模型,微软通过责任披露程序与其他AI提供商分享了这些发现,并在Azure AI托管模型中使用Prompt Shields检测和阻止此类攻击。此外,微软还对包括Copilot AI助手在内的AI产品背后的大型语言模型(LLM)技术进行了软件更新,以减轻此防护措施绕过的影响。 骷髅钥匙简介 这种AI越狱技术通过多轮(或多步)策略使模型忽略其防护措施。一旦防护措施被忽略,模型将无法区分恶意或未经授权的请求,因为其完全绕过的能力,因此命名为“Skeleton Key”。 Skeleton Key攻击依赖于攻击者已经拥有对AI模型的合法访问权限。绕过安全防护后,Skeleton Key允许用户使模型生成通常被禁止的行为,从生成有害内容到覆盖其常规决策规则。与所有越狱攻击一样,其影响可以理解为缩小了模型在拥有用户凭据等情况下能够做什么和愿意做什么之间的差距。由于这是对模型本身的攻击,并不会给AI系统带来其他风险,例如允许访问其他用户的数据、控制系统或数据泄露。 攻击流程 Skeleton Key通过请求模型增强而不是更改其行为指南,使其对任何信息或内容请求作出响应,即使其输出可能被认为是冒犯性、有害或非法的也仅提供警告。这种攻击类型称为明确:强制执行指令。 例如,告知模型用户受过安全和伦理训练,并且输出仅用于研究目的,有助于说服一些模型遵守,如下图所示: 当Skeleton Key越狱成功时,模型确认已更新其指南,并随后会遵守生成任何内容的指令,无论其多么违反原本的责任AI指南。 在2024年4月至5月的测试中,发现以下基底模型和托管模型均受影响: 对于每个测试模型,评估了包括炸药、生物武器、政治内容、自残、种族主义、毒品、露骨性内容和暴力在内的风险和安全内容类别。所有受影响模型均完全遵守且无审查地执行这些任务,但前缀了所请求的警告说明。与其他越狱攻击如Crescendo不同,Skeleton Key使用户可以直接请求任务,而不必间接或通过编码方式请求。此外,模型输出完全未过滤,揭示了模型知识或生成所请求内容的能力。 缓解和防护指南 微软对其AI产品背后的LLM技术进行了软件更新,包括Copilot AI助手,以减轻这种防护措施绕过的影响。客户应考虑以下方法来缓解和防护此类越狱攻击: 在Azure上构建AI解决方案 微软为在Azure上开发自己应用程序的客户提供工具。Azure AI内容安全Prompt Shields默认启用,并通过严重性阈值进行参数化。建议设置最严格的阈值,以确保最佳安全保护。这些输入和输出过滤器不仅对这种特定的越狱技术起到防御作用,还对广泛的新兴技术试图生成有害内容起到防御作用。Azure还提供内置工具进行模型选择、提示工程、评估和监控。例如,Azure AI Studio中的风险和安全评估可以使用合成对抗数据集评估模型和/或应用程序的越狱攻击易感性,而Microsoft Defender for Cloud可以提醒安全操作团队注意越狱和其他活跃威胁。 通过Azure AI和Microsoft Security(Microsoft Purview和Microsoft Defender for Cloud)的集成,安全团队还可以发现、防护和管理这些攻击。Microsoft Defender for Cloud与Azure OpenAI服务的本地集成,结合Azure AI内容安全Prompt Shields和Microsoft Defender威胁情报,提供上下文驱动和可操作的安全警报。AI工作负载的威胁保护允许安全团队在运行时监控其Azure OpenAI驱动的应用程序,以检测与直接和间接提示注入攻击、敏感数据泄露和数据中毒或拒绝服务攻击相关的恶意活动。
苹果与OpenAI合作,加入董事会观察员行列
苹果将担任OpenAI董事会观察员,提供与微软类似的洞察力 根据上个月宣布的一项协议,苹果将担任OpenAI董事会的观察员,为其提供与微软相似的洞察力。这项协议的一部分是将ChatGPT整合到苹果设备中。苹果首席执行官蒂姆·库克表示,该合作关系将成为一系列AI功能的一部分,比如增强版Siri语音助手,标志着苹果在产品中融入技术的“下一大步”。 据知情人士透露,苹果应用商店负责人、自1997年以来一直是苹果执行团队成员的菲尔·席勒将在今年晚些时候担任董事会观察员。该消息最早由彭博社报道。OpenAI和苹果均拒绝对此置评。 观察员身份意味着席勒可以参加OpenAI董事会会议,但不能对任何董事会决策进行投票。这使得苹果与去年获得非投票观察员身份的微软处于同等地位。 微软已经向OpenAI投资约130亿美元,作为战略合作的一部分,允许ChatGPT的开发者使用微软庞大的计算和云资源,同时保持独立运营。根据协议条款,微软有权在投资回收之前获得OpenAI大约一半的利润。 OpenAI在3月重组了其董事会,初创公司创始人兼首席执行官萨姆·奥特曼在去年11月被戏剧性解职后重新加入董事会。一项对董事会混乱情况的审查发现,没有证据表明他误导投资者或在不安全的情况下推动产品发布,这些担忧导致他被解雇并在几天后重新上任。 董事会还新增了三名成员,包括Instacart首席执行官菲迪·西莫、前比尔及梅琳达·盖茨基金会负责人苏·德斯蒙德-赫尔曼,以及索尼娱乐前总裁妮可·塞利格曼。前美国财政部长拉里·萨默斯去年底被任命为董事会成员,上一届董事会成员、Quora首席执行官亚当·德安杰洛也继续担任董事。 在科技巨头包括Alphabet、微软、亚马逊和Meta竞相开发AI新产品的同时,苹果的这项协议出台了。这些公司有时会与专注于这项技术的初创公司合作。这引起了美国反垄断监管机构的关注,他们要求提供有关大型科技公司与新兴AI团体之间合作的信息。 苹果不会向OpenAI支付使用ChatGPT的费用,但该协议将使初创公司接触到数亿用户。苹果的生成式AI功能套件,被称为“Apple Intelligence”,预计将在今年晚些时候推出。
七项确保AI监管得当的原则
AI的重要性不容忽视,监管势在必行 Google和Alphabet全球事务总裁Kent Walker分享了一些智能监管的原则,以保持AI发展的势头。Kent Walker表示,一直以来,他们都认为AI的重要性不容忽视,但同样也需要良好的监管。随着从康涅狄格州到加利福尼亚州的立法者提出新的AI法律框架,这意味着什么呢? 美国政府的有效策略 过去一年里,美国政府在为AI开发者、部署者和用户制定指导方针时采取了深思熟虑的策略。原则性的承诺为该行业制定了框架,同时联邦行政命令为监管者提供了详细的指导意见。在两党分歧的时期,国会也以审慎和均衡的方式补充了这项工作。众议院成立了一个由计算机科学和AI专家领导的两党委员会来考虑立法,上个月参议院的两党AI工作组发布了“推动美国AI创新”的政策路线图,提出了详细的政策建议,以平衡AI的风险和收益。 Kent Walker对这些努力表示欢迎,原因有三: 七项负责任的监管原则 为了补充科学创新,Walker提出了七项原则,作为大胆和负责任的AI监管的基础: 展望未来 AI从日常应用到非凡的突破正在推动进步。现代AI不仅是技术突破,更是创造突破的工具。只要我们保持一致、深思熟虑、协作,并关注AI带来的长期潜力,就能让每个人都受益。 从Google DeepMind的AlphaFold计划预测几乎所有已知蛋白质的3D结构,到利用AI提前7天预测洪水,为全球80个国家的4.6亿人提供救命预警,AI能带来更多令人惊叹的突破。为了实现这些潜力,我们需要保持一致、深思熟虑、协作,关注大家能从中获得的益处。