在机器学习领域,实践者在使用现有数据集训练模型时,经常需要花费大量时间去理解数据、梳理其组织结构,或确定哪些子集用作特征。这种情况严重阻碍了机器学习领域的进展,因为数据表示形式的多样性构成了一个基本障碍。 机器学习数据集包括了从文本、结构化数据到图像、音频和视频等广泛的内容类型。即使是涵盖相同类型内容的数据集,每个数据集也都有其独特的文件安排和数据格式。这个挑战降低了整个机器学习开发流程的效率,从寻找数据到训练模型,以及开发处理数据集的工具的过程都受到了影响。 虽然存在诸如schema.org和DCAT这样的通用元数据格式,但这些格式主要设计用于数据发现,而不是满足机器学习数据特定需求,比如能够从结构化和非结构化源中提取和结合数据的能力,包括能够促进数据负责任使用的元数据,或描述机器学习使用特性,例如定义训练、测试和验证集的能力。 现在,业界引入了一个名为Croissant的新元数据格式,专为机器学习准备的数据集设计。Croissant是由来自工业界和学术界的社区协作开发的,作为MLCommons努力的一部分。Croissant格式并不改变实际数据的表现形式(如图像或文本文件格式),而是提供了一种标准化的方式来描述和组织数据。Croissant在schema.org的基础上进行了扩展,该标准已被超过4000万个数据集所使用,为机器学习相关的元数据、数据资源、数据组织和默认机器学习语义增加了全面的层次。 此外,业界还宣布了对Croissant格式的广泛支持。从现在起,三个广泛使用的机器学习数据集库——Kaggle、Hugging Face和OpenML——将开始支持他们托管的数据集使用Croissant格式;数据集搜索工具允许用户在网上搜索Croissant数据集;流行的机器学习框架,包括TensorFlow、PyTorch和JAX,可以通过TensorFlow数据集(TFDS)包轻松加载Croissant数据集。 Croissant的1.0版本包括了格式的完整规范、一套示例数据集、一个用于验证、消费和生成Croissant元数据的开源Python库,以及一个用于以直观方式加载、检查和创建Croissant数据集描述的开源视觉编辑器。 从一开始,支持负责任的人工智能(Responsible AI,简称RAI)就是Croissant努力的一个核心目标。业界也发布了Croissant RAI词汇扩展的首个版本,该扩展增加了描述关键RAI使用案例(如数据生命周期管理、数据标注、参与式数据、机器学习安全和公平评估、可解释性和合规性)所需的关键属性。 为什么需要一个共享的机器学习数据格式?大部分机器学习工作实际上是与数据相关的。训练数据是决定模型行为的“代码”。数据集可以是用于训练大型语言模型的文本集合,也可以是用于训练汽车碰撞避免系统的驾驶场景(标注视频)的集合。然而,开发机器学习模型的步骤通常遵循相同的迭代数据中心过程:寻找或收集数据、清理和精炼数据、在数据上训练模型、在更多数据上测试模型、发现模型不起作用、分析数据找出原因、重复直到获得一个可用的模型。由于缺乏一个共同的格式,这些步骤变得更加困难,尤其是对资源有限的研究和早期创业努力而言。 像Croissant这样的格式旨在简化整个过程。例如,元数据可以被搜索引擎和数据集仓库利用,以便更容易地找到合适的数据集。数据资源和组织信息简化了开发用于清理、精炼和分析数据的工具的过程。这些信息和默认的机器学习语义允许机器学习框架以最少的代码使用数据进行训练和测试。这些改进显著减轻了数据开发的负担。 此外,数据集作者关心他们的数据集的可发现性和易用性。采用Croissant可以提高他们数据集的价值,同时只需付出最小的努力,得益于可用的创建工具和机器学习数据平台的支持。 去看看:Croissant – MLCommons
微软AI工程师向联邦贸易委员会(FTC)发出警告,对Copilot Designer的安全性表示担忧
一位微软工程师正将该公司的AI图像生成器的安全性问题报告给联邦贸易委员会(FTC),据CNBC报道。Shane Jones,一位为微软工作了六年的员工,写信给FTC,表示微软“拒绝”下架Copilot Designer,尽管反复警告该工具能生成有害图片。 在对Copilot Designer进行安全问题和缺陷测试时,Jones发现该工具生成了“恶魔和怪物,以及与堕胎权利相关的术语、手持攻击步枪的青少年、女性性感化图像以及暴力场景、未成年人饮酒和吸毒”,CNBC报道。 此外,据报道,Copilot Designer生成了迪士尼角色的图片,如《冰雪奇缘》中的Elsa,在加沙地带的场景中,“在被摧毁的建筑物和‘解放加沙’的标志前。”它还创造了Elsa穿着以色列国防军制服,手持带有以色列国旗的盾牌的图片。The Verge使用该工具生成了类似的图片。 Jones自去年12月以来一直试图就Copilot Designer使用的DALLE-3模型向微软发出警告,CNBC表示。他在LinkedIn上发表了一封公开信,但据报道,他被微软的法律团队联系,要求他删除帖子,他遵从了。 “在过去的三个月里,我一直反复敦促微软将Copilot Designer从公共使用中移除,直到能够实施更好的安全措施,”Jones在CNBC获得的信中写道。“再次,他们未能实施这些更改,并继续向‘任何人,任何地方,任何设备’市场推广该产品。” 在对The Verge的声明中,微软发言人Frank Shaw表示,公司“致力于根据”微软的政策“解决所有员工的任何和所有担忧。” “当涉及到可能对我们的服务或我们的合作伙伴产生潜在影响的安全绕过或关切时,我们已经建立了产品内用户反馈工具和健全的内部报告渠道,以适当地调查、优先处理和补救任何问题,我们建议员工利用这些工具,以便我们可以适当地验证和测试他的关切。”Shaw还说,微软“促成了与产品领导和我们负责任的AI办公室的会议,以审查这些报告。” 在一月份,Jones在Copilot Designer生成了泰勒·斯威夫特的显性图片后,这些图片迅速在X上传播,他向一组美国参议员写信表达了他的担忧。微软CEO Satya Nadella称这些图片“令人震惊且可怕”,并表示公司将致力于增加更多安全防护措施。上个月,谷歌在用户发现其自己的AI图像生成器创造了种族多样性的纳粹和其他历史不准确的图片时,暂时禁用了该生成器。
Meta正打造一个巨型AI模型,旨在为其“整个视频生态系统”提供动力,一位高管透露
Meta正斥巨资投资于人工智能,包括开发一个旨在支撑Facebook整个视频推荐引擎的AI系统,这一系统将跨越其所有平台,公司一位高管于周三表示。 Facebook负责人Tom Alison表示,Meta的“技术路线图直至2026年”的一部分,涉及开发一个AI推荐模型,该模型既能支持公司类似TikTok的短视频服务Reels,也能支持更传统、更长的视频内容。 到目前为止,Meta通常对其每个产品,如Reels、Groups和核心的Facebook Feed,使用单独的模型,Alison在旧金山摩根士丹利科技大会上的演讲中说。 作为Meta雄心勃勃进入AI领域的一部分,公司已在英伟达图形处理单元(GPU)上投入了数十亿美元。这些成为了AI研究者训练用于支撑OpenAI流行的ChatGPT聊天机器人和其他生成式AI模型的大型语言模型的主要芯片。 Alison说,Meta技术路线图的“第一阶段”涉及将公司当前的推荐系统从更传统的计算机芯片转换到GPU,帮助提高产品的整体性能。 随着去年对大型语言模型(LLMs)的兴趣激增,Meta高管被这些大型AI模型能“处理大量数据和各种非常通用的活动,如聊天”所打动。Meta开始看到使用一个巨型推荐模型跨产品使用的可能性,并在去年构建了“这种新的模型架构”,Alison补充说,该公司在Reels上测试了它。 这种新的“模型架构”帮助Facebook在核心Facebook应用上的Reels观看时间“增加了8%到10%”,这帮助证明了该模型“比上一代从数据中学习得更有效率”。 “我们真的专注于投资更多以确保我们可以用正确的硬件来扩大这些模型的规模,”他说。 Meta现在处于其系统重构的“第三阶段”,该阶段涉及试图验证技术并将其推广到多个产品。 “我们不仅仅是让Reels受到这个单一模型的驱动,我们还在开展一个项目,旨在用这个单一模型驱动我们的整个视频生态系统,然后我们还可以将我们的Feed推荐产品也由这个模型来服务,”Alison说。“如果我们做对了,不仅推荐内容会更加吸引人和相关,我们认为它们的响应性也可以得到改善。” Alison解释说,如果成功,这将如何工作:“如果你在Reels上看到你感兴趣的内容,然后你回到Feed,我们可以展示更多类似的内容给你。” Alison表示,Meta已积累了大量GPU,将用于支持其更广泛的生成式AI努力,如数字助手的开发。 Meta正在考虑的一些生成式AI项目包括在其核心Feed中加入更复杂的聊天工具,所以一个看到“关于泰勒·斯威夫特的推荐帖子”的人,或许可以“轻松点击一个按钮,说,‘嘿,Meta AI,现在告诉我更多我正在看的关于泰勒·斯威夫特的信息。’” Meta还在尝试将其AI聊天工具集成到Groups中,所以Facebook烘焙小组的一个成员可能会就甜点提出一个问题,并从数字助手那里得到答案。 “我认为我们有机会将生成式AI放在一种多人消费者环境中,”Alison说。
OpenAI大动作不断,他们刚刚聘请了一位光子量子计算领域的研究专家
OpenAI近日迎来了一位光子量子计算领域的研究员——Ben Bartlett,开启了他在OpenAI的研究生涯。Ben Bartlett在他的个人网站上分享了一些关于他的研究工作,听起来非常酷炫,就像他在设计一条条小型赛道,让光子在上面跑圈,通过巧妙的设计让这些光子完成有用的计算任务。 深入了解他的研究后,发现了一项非常吸引人的专利,标题为“在合成时间维度中进行确定性光子量子计算”,这项研究听起来十分复杂,但简而言之,它涉及的是利用光子进行量子计算的新方法: 规模可扩展性:这种方法通过单个原子控制多个光子量子位的相互作用,与系统中量子位的总数无关,这对光子量子计算机的可扩展性是一个重大突破。合成时间维度:利用所谓的“合成时间维度”,让光子量子位在不同时间与单个原子相互作用,这意味着无需增加额外的原子或量子组件就能控制多个量子位。确定性操作:与许多依赖概率操作的线性光学量子计算方法不同,这种方案提出了确定性的量子门操作,这提高了计算效率和可扩展性。最小化量子硬件需求:该方案无论系统中有多少光子量子位,都只需要极少的量子硬件(一个原子在一个腔体中),这是对当前量子计算架构的一个重要优势。对缺陷的鲁棒性:研究表明,即使存在实验上的不完美,该方案也能保持高保真度操作,这是实现实用量子计算的关键里程碑。 Ben Bartlett的加入不仅为OpenAI带来了光子量子计算的前沿研究,还预示着OpenAI可能正在探索量子计算在AI应用中的潜能。这与OpenAI之前引入的其他顶尖人才,如Noam Brown,共同标志着公司在追求AI发展的新路径。想象一下,如果量子计算、核聚变技术以及人工超智能能够在未来某个时间点汇聚一堂,那将是一个怎样令人震惊的时代呢!不过,这些都还只是猜测,未来究竟会如何,还让我们拭目以待吧。
为了对付搜索中的垃圾和低质量内容,Google的团队采取了全新的策略
每天,全球数以亿计的用户都依赖搜索引擎寻找网络世界的精华。针对那些尝试通过低质量内容操纵搜索结果的新兴手段,这家技术巨头长期以来已经建立了一套政策和自动化系统以对抗垃圾信息发布者,并且持续努力应对。为了有效地抵御这些趋势,该公司定期更新这些政策和系统,致力于持续提供有用的内容,并帮助用户连接到高质量的网站。 如今,该公司宣布了一系列关键变革,旨在提升搜索服务的质量及其结果的实用性: 减少低质量、非原创结果自2022年起,该公司开始调整其排名系统,以减少在搜索中的无用、非原创内容,并保持这些内容在非常低的水平。现在,借助2024年3月的核心更新,该公司将之前工作中学到的经验应用于实践。 此次更新涉及对某些核心排名系统的细化,帮助该公司更好地判断网页是否无用、用户体验差,或感觉像是为搜索引擎而非人类而创建。这可能包括那些主要为了匹配非常具体搜索查询而创建的站点。 该公司相信,这些更新将减少搜索中的低质量内容,并将更多流量引向有用和高质量的网站。基于评估,预计此次更新及之前的努力将共同在搜索结果中减少40%的低质量、非原创内容。 让结果中更少垃圾信息多年来,该公司依靠先进的垃圾对抗系统和政策,防止最低质量的内容出现在搜索结果中,并持续进行这项工作。 该公司正在对其垃圾政策进行几项更新,以更好地应对新兴和演变的滥用实践,这些实践导致非原创、低质量的内容出现在搜索中。从今天开始,将对更多此类操纵行为采取行动。虽然排名系统阻止了许多类型的低质量内容高排名,但这些更新让该公司能够根据垃圾政策采取更有针对性的行动。 大规模内容滥用长期以来,该公司一直反对使用自动化生成大量低质量或非原创内容以操纵搜索排名。为了更好地应对更加复杂的大规模内容创建方法,该公司正在加强政策,无论涉及自动化、人类还是二者的结合,均专注于打击这种滥用行为。 网站声誉滥用有时,拥有自身优质内容的网站可能还会托管第三方提供的低质量内容,以利用该网站的强大声誉。该公司现在将这类主要为排名目的而生产的、没有网站所有者密切监督的非常低价值的第三方内容视为垃圾邮件。 过期域名滥用偶尔,过期域名被购买并重新利用,主要目的是提升低质量或非原创内容的搜索排名。这种行为现在被视为垃圾邮件。 通过这些举措,该公司继续努力在搜索中保持低质量内容的低水平,展示更多旨在帮助人们的信息,每天帮助全球用户解决数以亿计的问题,同时不断寻求改进的空间。
OpenAI 大声读出来
OpenAI最近为ChatGPT推出了一项新功能,叫做“朗读”功能,这个功能对于那些在外奔波的用户来说简直是太棒了,它能用五种声音选项之一大声读出回答给用户听。现在,无论是ChatGPT的网页版本还是iOS和Android的ChatGPT应用程序都已经可以使用这个功能了。 “朗读”功能可以用37种语言说话,但会自动检测它正在读的文本的语言,并且这个功能对于GPT-4和GPT-3.5都是可用的。这是一个有趣的例子,展示了OpenAI在多模态能力上(能够通过不止一种媒介读取和响应)的所作所为,特别是在一个竞争对手Anthropic给其AI模型添加了类似功能之后不久。 ChatGPT在2023年9月推出了语音聊天功能,用户可以直接向聊天机器人发起语音提示而不需要打字。但这项新功能将让人们可以让ChatGPT大声读出书面回答,用户还可以设置聊天机器人在回应提示时总是以口语形式回答。 在移动应用上,人们可以长按文本以打开“朗读”播放器,在那里他们可以播放、暂停或倒带朗读内容。网页版本则在文本下方显示一个扬声器图标。
DeepMind前成员携手推出了Haiper 挑战Sora
在OpenAI上个月推出Sora模型之后,以AI为驱动的视频生成市场火热非凡。两位DeepMind前成员,苗义书和王子玉,公开发布了他们的视频生成工具Haiper,该工具底层搭载了自己的AI模型。 之前在TikTok全球信任与安全团队工作的苗义书,以及曾在DeepMind和谷歌担任研究科学家的王子玉,从2021年开始着手公司事务,并于2022年正式成立了公司。 这对搭档在机器学习领域拥有丰富的专长,他们最初致力于利用神经网络进行3D重建问题的研究。苗义书在与TechCrunch通话中提到,经过对视频数据的训练,他们发现视频生成比3D重建更加吸引人。这也是为什么Haiper在大约六个月前开始专注于视频生成的原因。 Haiper在一轮种子融资中筹集了1380万美元,该轮融资由章鱼风投领投,5Y Capital参与投资。此前,像Phil Blunsom和Nando de Freitas这样的天使投资人帮助公司在2022年4月筹集了540万美元的种子前轮融资。 Haiper提供视频生成服务,用户可以通过输入文本提示在其网站上免费生成视频。但是,存在一定的限制。你只能生成长达两秒的高清视频和质量稍低的最长四秒视频。 此外,Haiper网站还提供了诸如将你的图片动画化、以不同风格重绘你的视频等功能。公司还在努力引入诸如延长视频时长的能力。 苗义书表示,公司的目标是保持这些功能的免费,以此构建社区。他指出,对于这家刚起步的公司来说,现在考虑围绕视频生成构建订阅产品“还为时过早”。然而,它已经与像京东这样的公司合作,探索商业用途。 他们使用了一个原始的Sora提示来生成样本视频:“几头巨大的毛毛象穿过雪地草原,它们长长的毛发在风中轻轻摇曳,背景是被雪覆盖的树木和戏剧性的雪山,午后的光线透过稀疏的云朵,在远处的阳光下产生温暖的光芒,低视角的镜头捕捉到这些大型毛茸茸的哺乳动物,摄影的景深效果令人惊叹。” 虽然Haiper目前专注于其面向消费者的网站,但它希望构建一个核心的视频生成模型,该模型可以提供给其他人。公司尚未公开任何有关模型的详细信息。 苗义书表示,公司已私下联系了一批开发者尝试其封闭API。他预计开发者的反馈对于公司迅速迭代模型非常重要。Haiper还考虑了将来可能开源其模型,以便人们探索不同的使用案例。 CEO相信,目前重要的是解决视频生成中的不可思议谷现象 —— 当人们看到AI生成的类人形象时会引发怪异感觉的现象。 “我们并不是在解决内容和风格领域的问题,而是试图解决基本问题,比如AI生成的人物行走时的外观或雪花落下的样子。”他说。 公司目前有大约20名员工,并且正在积极招聘多个工程和营销职位。 未来的竞争目前,OpenAI最近发布的Sora可能是Haiper目前最受欢迎的竞争对手。然而,还有其他参与者,如谷歌和Nvidia支持的Runway,已经筹集了超过2.3亿美元的资金。谷歌和Meta也有自己的视频生成模型。去年,Stability AI宣布了稳定扩散视频模型的研究预览。 章鱼风投的合伙人Rebecca Hunt认为,在接下来的三年里,Haiper需要构建一个强大的视频生成模型,以在这个市场中实现差异化。 “实际上,只有少数几个人有能力实现这一点;这是我们想要支持Haiper团队的原因之一。一旦模型超越了不可思议谷并反映了现实世界及其物理规律,将会有一个应用无限的时期,”她通过电子邮件告诉TechCrunch。 虽然投资者正在寻求投资于AI驱动的视频生成初创公司,他们也认为这项技术仍有很大的改进空间。 “感觉就像AI视频还处于GPT-2级别。我们在过去一年取得了巨大进步,但在日常消费者开始每天使用这些产品之前,还有很长的路要走。视频的‘ChatGPT时刻’何时到来?”a16z的Justine Moore去年写道。
OpenAI反击Elon Musk
在这个时代,OpenAI和马斯克大佬之间的故事可谓是充满了曲折。OpenAI,一个立志于让人工智能(AGI)造福全人类的团队,和马斯克大佬,一个对未来充满憧憬的科技先驱,原本同舟共济,但命运的浪潮似乎总爱开玩笑。 从一开始,OpenAI就怀揣着宏大的梦想,想要构建一个既安全又有益的AGI,而且还要让这种科技的红利广泛分布。然而,随着时间的推移,他们发现要实现这个目标,所需的资源远超最初预期。在这种情况下,马斯克大佬大手一挥,提议最初为OpenAI承诺10亿美元资金。看着来自马斯克的不到4500万美元和其他捐赠者的9000多万美元,他们意识到,这场战斗没有那么简单。 时间回到2015年底,Greg和Sam计划筹集1亿美元,但马斯克大佬却认为这样的数字太过渺小,于是提出了一个大胆的想法——10亿美元的资金承诺,以避免让OpenAI显得无望。他们面对的,不仅仅是资金的问题,还有达到AGI所需的巨量计算资源。 随着讨论深入,双方认识到,要成功完成使命,可能需要创建一个盈利实体来获取更多资源。然而,当讨论转向盈利结构时,马斯克大佬的想法和OpenAI的初衷出现了分歧。他想要与特斯拉合并或拥有完全控制权,这让OpenAI感到难以接受。在一系列的交锋之后,马斯克大佬最终选择离开,他认为没有他,OpenAI的成功概率为零。离别时,他虽然表达了对OpenAI找到自己道路的支持,但随后的发展却是一场诉讼战。 OpenAI并未因此停步,他们致力于构建广泛可用的有益工具,让技术在日常生活中发挥更大的力量。从阿尔巴尼亚加速加入欧盟的进程,到帮助肯尼亚和印度的农民提高收入,再到使用GPT-4简化手术同意书,OpenAI的努力无处不在。 马斯克大佬虽然离开,但他的影响仍旧深远。他理解OpenAI的使命,并在某种程度上支持他们的选择。但随着OpenAI朝着使命取得实质性进展,不带他的旅程似乎引发了他的不满,从而走向了诉讼。 尽管如此,OpenAI的脚步未曾停歇,他们依旧致力于推进使命,梦想着有一天,他们的工具能够赋能每一个个体,开创更美好的未来。在这场既有理想又充满现实挑战的征程中,OpenAI和马斯克大佬的故事,成为了科技史上一段难忘的佳话。
Anthropic 公司最新宣布,他们的 AI 聊天机器人模型击败了 OpenAI 的 GPT-4
AI初创公司Anthropic,背靠谷歌和数亿美元的风险投资(很可能很快还会增加数亿美元),今天宣布了其最新一代人工智能技术Claude的发布。该公司声称,这款AI聊天机器人在性能上超越了OpenAI的GPT-4。 Anthropic的新一代AI,名为Claude 3,包含了多个模型——Claude 3 Haiku、Claude 3 Sonnet和Claude 3 Opus,其中Opus是最强大的。Anthropic声称,所有这些模型在分析和预测方面都显示出了“增强的能力”,在特定基准测试中的表现也优于像ChatGPT和GPT-4,以及谷歌的Gemini 1.0 Ultra(但不包括Gemini 1.5 Pro)。 值得注意的是,Claude 3是Anthropic首款多模态的人工智能,意味着它可以分析文本和图片——类似于GPT-4和Gemini的某些版本。Claude 3可以处理照片、图表、图形和技术图纸,能够从PDF、幻灯片和其他文档类型中提取信息。 与一些人工智能竞争对手相比,Claude 3在一个方面做得更好,那就是可以在单个请求中分析多张图片(最多20张)。这使得它能够比较和对比图片,如Anthropic所述。 但是,Claude 3在图像处理方面也有其限制。 Anthropic已禁用模型识别人物——无疑是出于对伦理和法律影响的考虑。公司承认,Claude 3在处理“低质量”图片(低于200像素)时容易出错,并且在涉及空间推理(例如,读取模拟时钟面)和对象计数(Claude 3不能准确计算图像中的对象数量)的任务上存在困难。 至少目前而言,Claude 3也不会生成艺术作品。模型严格用于图像分析。 不论是处理文本还是图像,Anthropic表示,客户通常可以期待Claude 3比其前代模型更好地遵循多步骤指令,产生像JSON这样的结构化输出,并且能够使用英语之外的语言进行对话。得益于“对请求更加细腻的理解”,Claude 3应该更少地拒绝回答问题。不久后,模型还将引用其回答问题的来源,以便用户可以验证。 Anthropic在一篇支持文章中写道:“Claude 3倾向于生成更具表现力和吸引力的回应,”“与我们的旧模型相比,它更易于提示和引导。用户应该发现,他们可以使用更短、更简洁的提示来达到所需的结果。” 这些改进部分源于Claude 3的扩展上下文。 模型的上下文,或上下文窗口,指的是模型在生成输出之前考虑的输入数据(例如,文本)。具有小上下文窗口的模型倾向于“忘记”即使是非常近期的对话内容,导致它们偏离主题——经常以问题性的方式。作为一个额外的好处,大上下文模型可以更好地把握它们所接收的数据的叙事流,并生成更富有上下文的回应(至少理论上是这样)。 Anthropic表示,Claude 3最初将支持200,000令牌的上下文窗口,相当于约150,000个单词,某些客户将获得高达1,000,000令牌的上下文窗口(约700,000个单词)。这与谷歌最新的人工智能模型Gemini 1.5 Pro相当,后者也提供了高达一百万令牌的上下文窗口。 然而,仅仅因为Claude 3比之前的版本有所提升,并不意味着它是完美的。 在一篇技术白皮书中,Anthropic承认Claude 3并非免疫其他人工智能模型所面临的问题,即偏见和幻觉(即,编造事实)。与某些人工智能模型不同,Claude 3不能搜索网络;模型只能使用2023年8月之前的数据回答问题。而且,虽然Claude支持多种语言,但它在某些“低资源”语言上的流利程度不及英语。 但Anthropic承诺将在接下来的几个月中频繁更新Claude 3。 “我们并不认为模型智能已经达到其极限,我们计划在接下来的几个月内发布Claude 3模型家族的[增强功能],”公司在博客文章中写道。 Opus和Sonnet现已通过网页、Anthropic的开发控制台和API、亚马逊的Bedrock平台以及谷歌的Vertex AI提供。Haiku将于今年晚些时候推出。 以下是定价细节: Opus:每百万输入令牌15美元,每百万输出令牌75美元 Sonnet:每百万输入令牌3美元,每百万输出令牌15美元 Haiku:每百万输入令牌0.25美元,每百万输出令牌1.25美元 那么,Claude 3的全局观是什么呢? 嗯,正如我们之前报道的,Anthropic的雄心是创造一个下一代的“AI自我教学”算法。这样的算法可以用来构建虚拟助手,它们可以回答电子邮件、执行研究、生成艺术品、书籍等——我们已经通过GPT-4和其他大型语言模型尝试了其中的一些功能。…
“Morris II.”的AI病毒悄然登场
最近,一个由科技前沿的研究团队开发的名为“莫里斯二代”的AI蠕虫引起了广泛关注。这个团队由来自康奈尔科技的本·纳西、以色列理工学院的斯塔夫·科恩和Intuit的罗恩·比顿组成。他们以1988年那个在全球范围内引发麻烦的第一代计算机蠕虫“莫里斯”命名,旨在探索这一全新代的AI蠕虫能够对当前流行的AI应用程序和AI驱动的电子邮件助手造成何种影响。 “莫里斯二代”利用了对抗性的自我复制提示,通过这种方式,它能够在被生成式AI模型处理时复制输入内容,并进行恶意活动。更加狡猾的是,这些输入还能够利用生成式AI生态系统内的连通性,迫使代理将它们传播给新的代理。这个团队展示了“莫里斯二代”在两种场景下(发送垃圾邮件和窃取个人数据)、两种访问设置(黑盒和白盒访问)、两种输入数据类型(文本和图像)对生成式AI驱动的电子邮件助手的应用。 这项研究的发现对于那些试图利用这种技术挖掘包括信用卡详情和社会安全号码在内的机密信息的不法行为者来说,无疑是一个巨大的警钟。对此,作为负责任的研究人员,他们已经向谷歌和OpenAI报告了他们的发现。当《连线》杂志联系谷歌寻求评论时,谷歌拒绝评论这项研究,但OpenAI的一位发言人回应称,“他们似乎找到了一种通过依赖未经检查或过滤的用户输入来利用提示注入类型漏洞的方法。”OpenAI的代表还表示,公司正在使其系统变得更加强大,并补充说开发者应使用确保他们不处理有害输入的方法。 就像是在一部充满惊险与科技较量的电影中,我们正见证着科技世界中的一场紧张而又刺激的“猫鼠游戏”。在这场游戏中,信息安全是守护我们数字世界平安的关键。随着技术的不断进步,我们也需要不断提升我们的防御策略,确保在这个充满可能性的新时代中能够安全前行。 请见: https://sites.google.com/view/compromptmized