去年,OpenAI在旧金山举办了一场盛大的新闻发布会,宣布了一系列新产品和工具,包括命运多舛的GPT商店。 然而,今年的活动将低调许多。周一,OpenAI宣布将其DevDay大会的形式从一个重要的活动改为一系列巡回开发者互动会。公司还确认不会在DevDay期间发布其下一个主要旗舰模型,而是专注于API和开发者服务的更新。 “我们不计划在DevDay上宣布我们的下一个模型,”OpenAI发言人告诉TechCrunch。“我们将更多地关注教育开发者现有的内容,并展示开发者社区的故事。” 今年的DevDay活动将于10月1日在旧金山、10月30日在伦敦、11月21日在新加坡举行。所有活动将包括研讨会、小组讨论、OpenAI产品和工程团队的演示以及开发者聚光灯。注册费用为450美元(符合条件的参会者可通过奖学金免费参加),申请将于8月15日截止。 最近几个月,OpenAI在生成式AI领域采取了更多的渐进步骤,而不是巨大的飞跃,公司选择在训练其当前领先模型GPT-4o和GPT-4o mini的继任者时精细调整其工具。公司改进了模型的整体性能并防止其像以前那样频繁出错,但根据一些基准测试,OpenAI似乎在生成式AI竞赛中失去了技术领先地位。 其中一个原因可能是寻找高质量训练数据的挑战日益增大。 OpenAI的模型(与大多数生成式AI模型一样)基于海量的网络数据进行训练——许多创作者选择限制访问这些数据,担心他们的数据会被剽窃或不会得到应有的信用或报酬。根据Originality.AI的数据,全球排名前1000的网站中有超过35%现在屏蔽了OpenAI的网络爬虫。麻省理工学院数据来源计划的一项研究发现,主要用于训练AI模型的“高质量”来源数据中约有25%已被限制。 如果当前的访问屏蔽趋势继续下去,研究小组Epoch AI预测开发者将在2026年至2032年之间用尽用于训练生成式AI模型的数据。这——以及对版权诉讼的担忧——迫使OpenAI与出版商和各种数据经纪人达成高昂的许可协议。 据悉,OpenAI已经开发了一种推理技术,可以提高其模型在某些问题(特别是数学问题)上的响应能力,公司首席技术官Mira Murati承诺未来将推出具有“博士水平”智能的模型。(OpenAI在5月的一篇博文中透露,它已经开始训练其下一个“前沿”模型。)这是一个巨大的承诺——压力也很大。据报道,OpenAI在训练其模型和雇佣高薪研究人员时,损失了数十亿美元。 OpenAI仍面临许多争议,例如使用受版权保护的数据进行训练、严格的员工保密协议(NDA)以及有效地将安全研究人员推开。较慢的产品周期可能有助于扭转OpenAI为了追求更强大的生成式AI技术而忽视AI安全工作的叙事。
Author: aitrendtrackers@rengongzhineng.io
全新神经网络:Kolmogorov-Arnold网络更具解释性,有望为物理学家提供新假设
人工神经网络——受生物大脑启发的算法——是现代人工智能的核心,无论是聊天机器人还是图像生成器都依赖于它们。然而,由于其众多神经元,神经网络常常成为黑箱,用户难以理解其内部运作。 研究人员现在创造了一种从根本上新的神经网络方式,在某些方面超越了传统系统。据称,这些新网络不仅更具解释性,而且更准确,即使规模更小。其开发者表示,这种学习简洁表示物理数据的新方法可能帮助科学家发现新的自然法则。 “看到有新的架构出现,真是太好了。”——约翰霍普金斯大学布莱斯·梅纳德 过去十多年里,工程师们主要通过反复试验来调整神经网络设计。约翰霍普金斯大学的物理学家布莱斯·梅纳德研究神经网络的运行方式,但并未参与这项新工作,该研究于四月在arXiv上发布。“看到有新的架构出现,真是太好了,”他说,尤其是一种从基本原理设计的架构。 可以将神经网络比作神经元(或节点)和突触(或连接那些节点的链接)。在传统神经网络(称为多层感知机,MLP)中,每个突触学习一个权重——一个确定两个神经元之间连接强度的数字。神经元按层排列,一个层的神经元从前一层的神经元接受输入信号,并根据突触连接的强度加权。然后,每个神经元对其输入总和应用一个简单函数,称为激活函数。 在新的架构中,突触扮演更复杂的角色。它们不仅学习两个神经元之间连接的强度,还学习这种连接的完整性质——从输入到输出的映射函数。与传统架构中神经元使用的激活函数不同,这个函数可能更复杂——实际上是一个“样条”或多个函数的组合——并且在每个实例中不同。另一方面,神经元变得更简单——它们只是对所有前置突触的输出求和。这些新网络称为Kolmogorov-Arnold网络(KAN),以研究函数如何组合的两位数学家命名。其理念是,KAN在学习表示数据时提供更大的灵活性,同时使用更少的学习参数。 “这就像一种外星生命,从不同角度看待事物,但对人类来说也容易理解。”——麻省理工学院的刘子明 研究人员在相对简单的科学任务上测试了他们的KANs。在一些实验中,他们采用简单的物理定律,例如两个相对论速度物体相遇的速度。他们使用这些方程生成输入-输出数据点,然后对每个物理函数,训练一个网络并测试其余数据。他们发现,增加KANs的规模比增加MLPs的规模更快地提高其性能。在求解偏微分方程时,一个KAN比拥有100倍参数的MLP准确100倍。 在另一实验中,他们训练网络根据拓扑结的其他属性预测其标记属性。一个MLP使用约300,000个参数达到了78%的测试准确率,而一个KAN使用仅约200个参数达到了81.6%的测试准确率。 此外,研究人员可以直观地绘制KANs的图,查看激活函数的形状以及每个连接的重要性。他们可以手动或自动修剪弱连接,并用更简单的函数(如正弦或指数函数)替换一些激活函数。然后,他们可以将整个KAN简洁地总结为一个直观的单行函数(包括所有组件激活函数),在某些情况下完全重构生成数据集的物理函数。 “未来,我们希望它能成为日常科学研究的有用工具,”麻省理工学院的计算机科学家、该论文的第一作者刘子明说。“给我们一个我们不知道如何解释的数据集,我们把它交给KAN,它可以为你生成一些假设。你只需盯着大脑(KAN图)看,如果你愿意,还可以对其进行手术。”你可能会得到一个简洁的函数。“这就像一种外星生命,从不同角度看待事物,但对人类来说也容易理解。” 已经有几十篇论文引用了KAN预印本。“我一看到它就觉得非常激动,”阿根廷圣安德烈斯大学的计算机科学本科生亚历山大·博德纳说。在一周内,他和三名同学将KAN与卷积神经网络(CNN)结合,这是一种处理图像的流行架构。他们测试了他们的卷积KANs在分类手写数字或衣物上的能力。最好的卷积KANs在参数使用量减少约60%的情况下,与传统CNN的性能大致相当(两者在数字分类上均达到99%的准确率,在衣物分类上均达到90%)。尽管这些数据集相对简单,但博德纳表示,其他拥有更多计算能力的团队已经开始扩展这些网络。其他人将KAN与在大规模语言模型中流行的Transformer架构结合。 KANs的一个缺点是每个参数的训练时间更长——部分原因是它们无法利用GPU。但它们需要更少的参数。刘子明指出,即使KANs无法取代用于处理图像和语言的巨型CNN和Transformer,训练时间在许多物理问题的小规模下也不会成为问题。他正在研究专家如何将其先验知识插入KANs——例如通过手动选择激活函数——并使用简单界面轻松从中提取知识。未来,他说,KANs可能帮助物理学家发现高温超导体或控制核聚变的方法。
OpenAI人事变动:联合创始人John Schulman离职加入Anthropic
OpenAI的联合创始人之一John Schulman已离开公司,加入竞争对手AI初创公司Anthropic。此外,OpenAI的总裁兼联合创始人Greg Brockman也确认将休假至年底,以“放松和充电”,结束在公司九年的任期。 OpenAI还证实,去年加入的产品经理Peter Deng也已离职。Deng此前在Meta、Uber和Airtable负责产品开发。《信息》最早报道了Brockman和Deng的离职消息。 关于Schulman的离职,OpenAI的发言人表示:“我们感谢John作为OpenAI创始团队成员所做的贡献,以及他在推进对齐研究方面的努力。他的激情和努力为未来的创新奠定了坚实的基础,并将继续激励和支持OpenAI及整个领域的发展。” Schulman在X上发布了一则关于他离职的消息,表示他希望更加专注于AI对齐研究,即确保AI按预期行为的科学,并进行更多实际的技术工作。 “我决定在Anthropic追求这一目标,我相信在那里可以获得新的视角,并与对我最感兴趣的话题深有研究的人一起工作,”Schulman说。“我相信,即使没有我,OpenAI和我所在的团队也会继续繁荣。” Schulman在完成加州大学伯克利分校电气工程和计算机科学博士学位后不久就加入了OpenAI。他在创建AI聊天机器人平台ChatGPT方面发挥了关键作用,领导OpenAI的强化训练团队,优化生成式AI模型以遵循人类指令。 在AI安全研究员Jan Leike离职(现也在Anthropic工作)后,Schulman成为OpenAI对齐科学工作的负责人,也被称为“后训练”团队的负责人。他还曾是OpenAI新成立的安全委员会成员,目前尚不清楚谁将接替他的位置。 尽管围绕OpenAI的争议不断,尤其是公司在AI安全研究方面的态度和处理方式,但Schulman表示,他的离职并不是因为缺乏支持。 “公司领导层一直非常致力于对齐研究的投资,”Schulman说。“我的决定是个人的,基于我希望在职业生涯的下一阶段如何集中精力。” 随着Schulman的离职,OpenAI的11位创始人中只剩下三位:CEO Sam Altman、Brockman和负责语言和代码生成的Wojciech Zaremba。 “感谢你为OpenAI所做的一切!”Altman在X上对Schulman写道。“你是一位杰出的研究员,对产品和社会有深刻的思考者,更重要的是,你是我们所有人的好朋友。我们会非常想念你,并会让你为这个地方感到自豪。”
Mistral AI:欧洲AI新星的崛起之路
过去一年,总部位于巴黎的Mistral AI迅速崛起,成为欧洲本土的AI冠军之一,赢得了法国总统马克龙的赞誉。作为2024年TIME100最具影响力公司之一,这家初创公司已经发布了六个AI语言模型,能够回答问题、生成代码并进行基本推理。 今年6月,Mistral宣布在一轮融资中筹集了6.45亿美元,据报道,公司估值超过60亿美元。此前在2月,Mistral宣布与微软达成协议,将其模型提供给微软的客户,以换取使用微软计算资源的机会。 Mistral的联合创始人兼CEO Arthur Mensch在欧盟的里程碑式AI法律辩论中发声,主张立法者应关注AI模型的使用方式,而不是对通用AI模型进行监管。他还反对对AI开发者自由分享其创作的限制,称“看不到开放源码模型有任何风险,只看到好处。” TIME在五月采访了Mensch,讨论了吸引稀缺AI人才、Mistral的盈利计划以及欧洲AI生态系统的不足之处。 Mistral的首席商务官Florian Bressand几个月前在接受CNBC采访时表示,曾开发Llama模型的团队中超过一半的人现在为Mistral工作。Mistral是如何从像Meta这样资源丰富的公司吸引到这么多才华横溢的研究人员的? Mensch表示,最初是雇用了朋友。由于他们在该领域做出了有意义的贡献,大家都知道与他们一起工作很有趣。后来,他们开始雇佣不太熟悉的人,这得益于他们推动该领域朝着更开放方向发展的策略,这种使命吸引了许多科学家。 全世界只有少数人能够训练Mistral这样的AI系统。Mensch认为,虽然法国有一个繁荣的AI场景,但他们并没有雇佣所有懂得如何做这件事的人,但确实吸引了大约15位专家,约占当时能够从事这些工作的人的10%。 Mistral在筹集资金,这些钱主要用于计算资源。Mensch解释道,与软件行业不同,他们需要在初期进行大量投资,以获得科学团队和前沿技术模型。 几乎所有其他基础模型公司都谈到未来几年将在计算资源上花费1000亿美元。Mensch表示,尽管他们的花费会增加,但与竞争对手相比,他们仍然会更加节省。 Mistral目前是否盈利?当然不是。Mensch表示,作为一个成立仅12个月的初创公司,目前还不预期盈利。他们的商业模式是构建前沿模型并将其提供给开发者,建立一个允许开发者自定义AI模型的平台。 关于欧洲是否应该建立自己的主权计算基础设施,Mensch认为这对生态系统有益。目前,Mistral依赖多个云提供商,并致力于建立独立的技术堆栈和分发渠道。 法国前数字事务部长、Mistral联合创始人Cedric O警告说,欧盟AI法案可能会“扼杀”Mistral。Mensch认为,该法案总体上是可行的,但在透明度和知识产权方面需要平衡。 对于AI如何改变世界,Mensch表示,Mistral专注于提高生产力和推理能力。他认为,如果正确实施这项技术,并确保每个人都能使用它,它将改善各行各业的生活。 在谈到开源模型的风险时,Mensch坚信开源是治理软件和使用方式的最佳方法。他认为,AI模型只是定义软件的一种更抽象的方式,没有任何风险,只看到好处。
谷歌回归:Character AI创始人重返巨头怀抱,LLM团队大变动
Character AI(CAI),作为每月访问量超过1亿次的最热门消费者AI产品之一,正在失去其聪明的创始人和核心LLM人才,这些人才将回归谷歌。CAI的共同创始人Noam Shazeer和他的团队,原本是谷歌最初的Transformers论文的作者。 这是怎么回事? 谷歌正在授权CAI的模型并重新雇用其共同创始人,这些人最初离开谷歌创办了CAI。 这意味着什么? 用户花费数小时与CAI的聊天机器人交谈。如果有人认为CAI比Gemini对ChatGPT构成更大的威胁,那也不奇怪——看起来谷歌在某种程度上也同意这一点。 CAI的共同创始人Noam Shazeer和Daniel DeFreitas正在重新加入谷歌。他们并不孤单,构建CAI的LLM团队的大多数成员也在跟随他们。公告还提到,谷歌正在授权(非独占)CAI的当前LLM技术。为了提供背景信息,自2021年以来,CAI一直在构建自己的AI模型,但对其技术几乎没有宣传。 总体而言,这看起来像是为了获取顶级的LLM人才。谷歌可能并不需要CAI的模型(尤其是在发布了自己实验模型并名列前茅之后)。那么这个许可证的意义何在? CAI本身不会消失。它将继续运行,但将使用开源模型代替其自有技术。考虑到Meta的Llama模型几乎与封闭源代码模型一样好,为什么要花钱培训相同的LLM呢?相反,CAI将专注于让他们的角色扮演聊天机器人更具粘性。 投资者们获得了相当不错的回报,大约是他们在2023年估值CAI为10亿美元时支付的2.5倍。虽然不算是大赚一笔,但总算是有所收获。员工股票也将按相同的比例在2026年之前归属。 为什么要关心这个? 这笔交易是大科技公司迅速吞并AI初创公司的趋势的一部分。微软收购了Inflection AI,亚马逊收购了Adept AI,现在谷歌通过Character AI完成了这一杰作。 这正在改变AI的格局,并引发了对竞争的担忧。此外,如果你对AI或科技投资感兴趣,这也是一个提醒,即使是备受关注的初创公司也可能最终回到科技巨头的怀抱。哦,如果你是CAI的粉丝,你最喜欢的聊天机器人可能会有一些变化。
OpenAI新工具能检测作业作弊,但发布与否仍存争议
据《华尔街日报》报道,OpenAI开发了一种工具,可能会抓住那些通过ChatGPT写作业作弊的学生。但公司内部正在讨论是否要真正发布这一工具。 在给TechCrunch的声明中,OpenAI的一位发言人确认,公司正在研究《华尔街日报》所描述的文本水印方法,但由于“涉及的复杂性及其对OpenAI以外更广泛生态系统的潜在影响”,公司正在采取“慎重的态度”。 “我们正在开发的文本水印方法在技术上很有前景,但在研究替代方案时,我们正在权衡重要的风险,包括被不良行为者规避的可能性,以及对非英语使用者等群体的潜在不成比例影响,”这位发言人说。 这种方法与之前大多数检测AI生成文本的努力不同,后者大多无效。OpenAI自己去年就关闭了其之前的AI文本检测器,因为其“准确率低”。 通过文本水印,OpenAI将专注于检测ChatGPT生成的文本,而不是其他公司的模型。该方法通过改变ChatGPT选择词语的方式,实质上在写作中创建一个看不见的水印,稍后可以通过一个单独的工具检测到。 在《华尔街日报》故事发布后,OpenAI还更新了五月份关于检测AI生成内容的研究博客文章。更新中指出,文本水印在“高度准确,甚至对本地篡改(如改写)有效”,但对“全球篡改(如使用翻译系统、用另一生成模型重写,或要求模型在每个单词之间插入特殊字符然后删除该字符)”的抗性较差。 因此,OpenAI写道,这种方法“对于不良行为者来说很容易规避。”OpenAI的更新还呼应了发言人的观点,认为文本水印可能会“污名化AI作为非母语英语使用者的有用写作工具。”
GitHub推出全新AI模型平台:简化开发者体验
GitHub推出GitHub Models:开启开发者AI新时代 从家用计算机时代开始,开发者的主要创造方式一直是通过代码构建、定制和部署软件。如今,在AI时代,一种同样重要的创造方式正在迅速崛起:利用机器学习模型。越来越多的开发者正在构建生成式AI应用程序,包含后端和前端代码以及一个或多个模型。然而,仍有大量开发者难以轻松访问开放和封闭的模型。今天,这一切将有所改变。 GitHub正式推出GitHub Models,使其超过1亿的开发者能够成为AI工程师,并使用行业领先的AI模型进行构建。从Llama 3.1到GPT-4o和GPT-4o mini,再到Phi 3或Mistral Large 2,开发者可以通过内置的playground免费访问每个模型,测试不同的提示和模型参数。如果对playground中的表现感到满意,GitHub已经创建了一个滑行路径,让模型可以轻松移植到Codespaces和VS Code中的开发环境中。而一旦准备好投产,Azure AI提供内置的负责任AI、企业级安全与数据隐私,以及在超过25个Azure区域中为某些模型提供预配置的吞吐量和可用性。开发和运行AI应用程序从未如此简单。 GitHub Models playground中的乐趣对于大多数人来说,学习成为开发者并不是在教室里按部就班完成的,而是通过实践、尝试和实验来实现的。今天,对于AI模型来说也是如此。在新的互动模型playground中,学生、爱好者、初创公司等可以只需几次点击和击键,就能探索来自Meta、Mistral、Azure OpenAI服务、微软等最受欢迎的私有和开放模型。实验、比较、测试并部署AI应用程序,就在你管理源代码的地方。 与GitHub和微软一贯的隐私和安全承诺保持一致,GitHub Models中的提示或输出不会与模型提供商共享,也不会用于训练或改进模型。 测试和比较不同模型每个软件都是独一无二的。同样,每个模型在能力、性能和成本上也各有特点。Mistral提供低延迟,而GPT-4o在构建可能需要实时处理音频、视觉和文本的多模态应用程序方面表现出色。一些高级场景可能需要集成不同的模式,如用于检索增强生成(RAG)的嵌入模型。 通过这套模型,开发者将拥有所有需要的选项,以保持工作流程,更多地实验并更快地学习。而这仅仅是第一波。在未来几个月,随着GitHub Models的普遍可用性,我们将继续在平台上添加更多语言、视觉和其他模型。 在Codespaces中实现你的创意乐趣不仅仅停留在playground。借助Codespaces的强大功能,我们为你创建了一条零摩擦路径,让你在将模型推理代码引入自己的项目之前进行实验。准备好各种语言和框架的示例代码,你可以尝试各种场景,而不会遇到“仅在我的机器上有效”的问题。 然后,一旦准备就绪,你可以轻松地在你的项目中运行这些内容。利用从playground和Codespaces中获得的知识,在自己的应用程序中建立原型或概念验证。在GitHub Actions中运行提示评估,只需将一系列JSON文件管道到GitHub CLI中的GitHub Models命令中。或者你可以利用GitHub Models构建一个GitHub Copilot扩展,扩展GitHub的平台生态系统,覆盖软件开发的每一个阶段。最后,通过用Azure订阅和凭据替换你的GitHub个人访问令牌,投产到Azure AI。 作为AI初创公司创始人和开源维护者,GitHub Models使我的团队能够在一个地方访问和实验各种LLM。这简化了我们的开发,降低了构建AI应用程序的入门门槛。 ——Anand Chowdhary // FirstQuadrant联合创始人 AI时代的创作者网络从通过开源协作创建AI,到利用AI的力量创建软件,再到通过GitHub Models推动AI工程师的崛起——GitHub是AI时代的创作者网络。 通往人工通用智能(AGI)的道路离不开GitHub上互联社区的源代码和协作。仅在去年,就有超过10万个生成式AI项目在GitHub上创建。 GitHub Copilot正在从根本上改变软件生产的速度,在启用的文件中,几乎一半的代码由它编写。我们设想一个世界,在这个世界中,数百万初学者、爱好者和专业开发者都可以用纯人类语言编写代码。 现在,借助GitHub Models,超过1亿开发者可以在他们已经管理源代码、问题、拉取请求、工作流程和存储库的地方访问和实验新的AI模型——直接在GitHub上。 在未来几年中,我们将继续普及AI技术的访问,激发10亿开发者的热潮。通过这样做,我们将使世界人口的10%能够构建和推进突破性技术,加速全人类的进步。
微软与OpenAI关系升温:从合作伙伴到竞争对手的转变
本周二,微软在最新的年度报告中将人工智能初创公司OpenAI列入竞争对手名单。这份名单多年来一直包括亚马逊、苹果、谷歌和Meta等巨头。 微软与OpenAI有长期合作关系,作为其独家云提供商,并在产品中使用其AI模型,为商业客户和消费者服务。微软是OpenAI最大的投资者,据报道已向该公司注资130亿美元。 但此次新列入竞争对手名单表明两家公司开始进入彼此的领域。 在文件中,微软将OpenAI——ChatGPT聊天机器人的创建者——认定为AI产品和搜索及新闻广告领域的竞争对手。上周,OpenAI宣布了一个名为SearchGPT的搜索引擎原型。 一些公司选择支付费用以访问OpenAI的模型,另一些则通过微软的Azure OpenAI服务获取这些模型。对于那些寻求ChatGPT替代品的公司,微软的Copilot聊天机器人也可以通过Bing搜索引擎和Windows操作系统获得。 OpenAI的一位发言人告诉CNBC,两家公司之间的关系没有任何变化,他们的合作伙伴关系是以相互竞争为前提建立的。发言人表示,微软仍然是OpenAI的好伙伴。 尽管如此,这一年充满了戏剧性。 据报道,微软CEO萨提亚·纳德拉在11月OpenAI董事会推翻CEO Sam Altman之前没有被告知。Altman迅速复职后,OpenAI给予微软一个无投票权的董事会席位。微软本月早些时候放弃了这一职位。 今年3月,纳德拉聘请了DeepMind联合创始人穆斯塔法·苏莱曼。DeepMind是一家在OpenAI之前成立的AI研究公司,2014年被谷歌收购。苏莱曼联合创办并领导了初创公司Inflection AI,被任命为微软AI新部门的CEO,几名Inflection的员工也加入了他。 纳德拉仍与Altman关系密切。 “我喜欢Sam的一点是,他每天都打电话给我说,‘我需要更多,我需要更多,我需要更多,’”纳德拉在接受《纽约时报》采访时说道。
Google Gemini 1.5 Pro登顶Chatbot竞技场:多语言和技术任务表现卓越
Chatbot竞技场传来激动人心的消息! @GoogleDeepMind的新款Gemini 1.5 Pro(实验版0801)在过去一周内进行了测试,获得了超过12,000次社区投票。首次,Google Gemini成功登顶,超越了GPT-4o和Claude-3.5,以惊人的1300分位居榜首,并在视觉排行榜上也名列第一。 Gemini 1.5 Pro(0801)在多语言任务方面表现出色,并在数学、复杂提示和编程等技术领域表现强劲。 恭喜@GoogleDeepMind取得这一显著成就! Gemini(0801)类别排名: 快来体验这个模型. Gemini 1.5 Pro(实验版0801)在视觉排行榜上排名第一。 Gemini显示出强大的多语言能力:中文、日文、德文、俄文表现排名第一。 但在编程和复杂提示领域,Claude 3.5 Sonnet、GPT-4o和Llama 405B仍然领先。 总体胜率热图:Gemini 1.5 Pro(0801)对阵GPT-4o的胜率为54%,对阵Claude-3.5-Sonnet的胜率为59%。
欧盟推出《AI法案》:新规严控高风险AI应用
🔑 重点内容: 今年3月,欧盟宣布正在制定新的风险导向立法——《AI法案》,以规范在欧盟开发、使用和应用AI系统,确保其安全可信。欧洲委员会在5月通过了该法案,现已正式生效。 该立法采用“风险导向”方法,对“高风险”AI(如关键基础设施和生物识别系统)实施严格监管,而“低风险”AI(如聊天机器人)则监管较少。 新法案禁止使用生物识别数据(如种族和性取向)预测犯罪的AI系统,以及用于认知行为操控和社会评分的AI系统。 欧盟给科技公司3-6个月的时间遵守新规,否则将面临潜在罚款,金额从810万美元(或全球年营业额的1%)到3800万美元(或全球年营业额的7%)不等。 🤔 为什么值得关注:尽管此新法规旨在保护欧盟及其公民,但它将对全球科技公司产生重大影响,特别是在美国。大多数先进的AI系统来自美国公司(如苹果、OpenAI、谷歌和Meta),其中Meta和苹果已经因“欧洲监管环境的不确定性”而推迟了在欧盟推出其AI系统的计划。