去年秋天,雷朋和Meta联手推出了智能眼镜,不仅是个抓拍神器,还出乎意料地兼职耳机。但初版有点短板,缺的就是那个所谓的多模态AI——基本上就是一个AI助手能同时处理图片、音频和文字这些杂七杂八的信息。开售几周后,Meta赶快搞了个早期体验计划,但对大众来说,这功能终于要普及啦! 而就在这时,一个叫Humane AI Pin的新玩意儿也发布了,结果一出来就被评测狂批,用得人心里苦啊。AI设备似乎都蒙上了厄运的阴影。但我在雷朋Meta智能眼镜上体验了几个月的早期AI测试版后,我觉得现在下结论说这类产品没戏,还为时过早。 雷朋Meta智能眼镜的确让未来看起来酷炫多了,但别指望它无所不能。基本操作就是,“嘿,Meta,看看这是啥……”后面可以加上各种命令,比如“告诉我这是什么植物”,或者“读一下这个标志写的啥”,甚至“帮我写个Instagram的标题”。戴上眼镜,AI连接到云端,答案就会直接送到你耳朵里。虽说能力有限,但探索它的极限也挺有意思的。 比如说我那位车迷配偶,也戴着这款眼镜。每次出门,就开启“Meta的AI能不能正确识别这条街上随机的车”模式。有时候AI答得很准,但更多时候却是自信地错误。记得有一天,我配偶在拍我们的车:一辆阿尔法·罗密欧Giulia Quadrifoglio和一辆阿尔法·罗密欧Tonale。(别问我为啥他们这么爱意大利车,我只是个凯美瑞控。)它正确识别了Giulia,却也把Tonale认成了Giulia,这就搞笑了,因为这两车一个是轿车一个是SUV,外形完全不同。 至于我那些多肉植物,AI起初还真帮了大忙,虽然一开始因为我指令给错了,它让我自己描述植物。这就像学新语言一样,得知道怎么和AI沟通。然后它告诉我我有各种各样的多肉植物,包括长生草、库拉索芦荟和厚叶草。我用Planta应用对照了一下,果然有几株厚叶草。 还有一次,我配偶冲进我的办公室,“亲爱的!隔壁后院是不是有只超级大的松鼠?”我们一看,真有一只大老鼠在那晃悠。于是开始了一场默契的比赛。我配偶尝试了各种方法让AI识别这只动物。而我? 我拍了张照,用电脑查了一下。 我赢了。那其实是一只土拨鼠。 在这种情况下,缺个变焦功能就坑爹了。当我配偶拍了手机里的照片后,眼镜 终于认出了土拨鼠。有时候,问题不在于AI能不能用,而在于你得怎么调整自己的行为来配合它。 总的来说,AI在这副眼镜上还算好用。因为连着你的手机,所以几乎不用等待回答。它还是副耳机,所以跟它说话你也不会觉得傻,因为你已经习惯了通过耳塞交谈。总的来说,我觉得AI在我们外出时识别东西最有帮助。这是我平时用手机做的事情的自然延伸。只要不需要放大很远,不拿出手机其实挺好的。 加入一些新元素到熟悉的东西里,总比让人学全新的操作方式来得简单。比如说,我的是太阳镜,如果能在室内戴,我可能会更多用AI。但就目前而言,我还真不是那种怪胎。但我配偶就不同了,他们的眼镜是变色镜片的,而且就是喜欢用AI来找乐子。至于那些更具创造性的任务,比如让AI为我桌上猫的照片写一个搞笑的Instagram标题时,它来了一句,“证明我还活着,不是送披萨的。”幽默感这事儿,因人而异嘛。 但AI只是Meta眼镜的一个功能,不是全部。它们是不错的直播眼镜,也是优秀的第一视角相机。作为开放式耳机也挺棒。我喜欢戴着它们跑步或散步。即使我不用AI,这产品本身就已经很棒了。它在这里,通常能用,也是个还行的语音助手——这就让你更习惯于这种脸上电脑的概念,这也是它的重点所在。
Author: aitrendtrackers@rengongzhineng.io
谷歌、Meta和OpenAI,这几个科技巨头最近宣布了一项重要承诺:加强儿童安全措施
最近,“Safety by Design”原则被慈善机构Thorn和致力于解决AI不道德实践的非营利组织All Tech is Human联手提出,目的是为了应对AI技术滥用、制造和传播有害内容的问题,尤其是涉及儿童的恶劣内容。 随着AI技术的飞速发展,利用这一技术制作非法深度伪造影像的可能性大大增加,包括涉及儿童的内容。为此,这些原则的推出,旨在AI产品的开发、部署和维护的每一个环节加入强有力的安全措施。 那些签署这些原则的公司,需要确保他们的训练数据集不含有任何非法的儿童虐待相关内容,严格测试AI模型以防止生成危险图像,仅发布经过儿童安全评估的模型,并通过定期发布进展报告来保持透明度。这一行动不仅体现了将道德考量融入AI技术的前瞻性思维,也为科技行业树立了负责任的新标杆,推动儿童安全的同时,也是科技界的一次自我革新。
介绍Phi-3:微软重新定义小型语言模型(SLM)的可能性
微软最近推出了名为Phi-3的开放式AI模型家族,这是一系列最具性价比的小型语言模型(SLM)。Phi-3模型在各种语言、推理、编码和数学基准测试中的表现超越了同等大小甚至更大型号的模型。此次发布扩展了为客户提供高质量模型的选择,使他们在构建和开发生成式AI应用程序时有更多的实用选择。 从今天开始,3.8亿参数的Phi-3-mini模型已在微软Azure AI Studio、Hugging Face和Ollama平台上提供。https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3 Phi-3-mini提供两种上下文长度变体——4K和128K令牌。它是首个支持高达128K令牌上下文窗口的同类模型,且对质量的影响很小。它经过指令调优,训练以遵循反映人们正常沟通的各种指令类型,确保模型开箱即用。它在Azure AI上可用,利用部署-评估-微调工具链,并在Ollama上可供开发者在本地笔记本电脑上运行。它针对ONNX运行时进行了优化,支持Windows DirectML,并具有跨平台支持,包括图形处理单元(GPU)、CPU甚至移动硬件。它还作为NVIDIA NIM微服务提供,带有标准API接口,可以在任何地方部署,并已针对NVIDIA GPU进行了优化。 在接下来的几周内,将向Phi-3家族添加更多模型,为客户在质量-成本曲线上提供更多灵活性。Phi-3-small(70亿)和Phi-3-medium(140亿)将很快在Azure AI模型目录和其他模型园中提供。 微软持续提供在质量-成本曲线上最佳的模型,今天的Phi-3发布扩大了具有最先进小型模型的选择。Phi-3模型显著超越了同等大小和更大大小的语言模型在关键基准测试上的表现。例如,Phi-3-mini的表现优于其两倍大的模型,而Phi-3-small和Phi-3-medium则超越了包括GPT-3.5T在内的更大型号。 所有报告的数字都是使用相同的流程产生的,以确保数字之间的可比性。因此,由于评估方法的轻微差异,这些数字可能与其他公布的数字不同。我们的技术论文提供了更多关于基准测试的详细信息。 Phi-3模型按照微软的负责任AI标准开发,该标准是一套公司范围内基于责任、透明度、公平性、可靠性与安全、隐私与安全以及包容性的六大原则的要求。Phi-3模型经过严格的安全测量和评估、红队测试、敏感用途审查以及遵守安全指南,以帮助确保这些模型按照微软的标准和最佳实践负责任地开发、测试和部署。 微软利用Azure AI推出助手产品并使客户能够通过生成式AI转型其业务,这突显了对不同大小模型的需求。小型语言模型,如Phi-3,特别适用于资源受限环境、响应时间要求快的场景以及成本受限的用例。 Phi-3-mini特别适用于设备上使用,尤其是在与ONNX运行时进一步优化后,可以跨平台使用。Phi-3模型的较小大小也使得微调或定制更加容易和经济。此外,它们较低的计算需求使得它们是一个成本更低、延迟更低的选择。较长的上下文窗口使得它们能够接收和推理大量文本内容——文档、网页、代码等。Phi-3-mini展示了强大的推理和逻辑能力,使其成为分析任务的理想选择。 客户已经在使用Phi-3构建解决方案。例如,在农业领域,Phi-3已经展现了其价值,尤其是在互联网可能不易获得的地方。如此强大的小型模型连同微软的助手模板,可在需要时为农民提供,且运行成本更低,使AI技术更加普及。 印度的领先商业集团ITC正在利用Phi-3作为其与微软在Krishi Mitra农民应用助手上持续合作的一部分。ITCMAARS技术总监Saif Naik表示:“我们与Krishi Mitra助手的目标是在保持大型语言模型的准确性的同时提高效率。我们很高兴能与微软合作使用经过精细调整的Phi-3来实现我们的目标——效率和准确性!”
Perplexity再次成功筹集了一大笔资金剑指Google
最近,科技圈里又传出了一则令人振奋的消息:新晋搜索引擎公司Perplexity,在本年度已经完成了两轮融资后,正式启动了第三轮筹资,金额高达2.5亿美元!这一轮的融资将公司的估值推至25亿至30亿美元之间,让人不禁对这个挑战谷歌的新星刮目相看。 才两岁的Perplexity已经成为投资者的宠儿,尤其是在今年年初和三月初的两轮融资中表现尤为抢眼。他们在一月份募集到7400万美元,估值为5.4亿美元;到了三月,又以令人惊叹的姿态,从包括NVIDIA和亚马逊创始人杰夫·贝佐斯在内的投资者手中筹得6400万美元,估值飙升至10亿美元。更有意思的是,尽管与谷歌竞争激烈,前YouTube首席执行官Susan Wojcicki和谷歌大脑的早期成员Jeff Dean竟然也加入了投资者行列。 但Perplexity究竟有何魔力,让这些重量级玩家趋之若鹜呢?原来,这家初创公司利用先进的人工智能技术,包括使用大型语言模型(如GPT-4、Claude 3和Mistral)来搜索网络信息,并为用户提供带有引用的信息摘要。它已经迅速成为谷歌的有力竞争者,不仅处理的搜索查询数量比去年全年多出7500万次,而且还获得了包括NVIDIA首席执行官Jensen Huang在内的业界巨头的高度评价和频繁使用。 此外,Perplexity还成功吸引了包括Databricks、Stripe、Zoom、NVIDIA和HP等大客户的关注,它们分别利用这个平台进行票务销售趋势研究、精准营销推广、市场环境深度解析和更有效的搜索等,充分体现了Perplexity在金融、法律、体育、广告、软件和硬件等多个行业的广泛应用前景。 看来,Perplexity不仅仅是一个普通的搜索引擎,它正在用AI的力量重新定义信息搜寻的方式,也许很快我们就会看到更多的“Perplexity狂热者”出现。总之,这个大胆挑战传统的新生儿,正以它独特的魅力颠覆着整个搜索引擎市场。
《Adobe Firefly Image 3:创新步伐与挑战并存的AI图像生成技术升级》
Adobe的Firefly系列生成AI模型在创意人士中的声誉并不佳。特别是Firefly图像生成模型,与Midjourney、OpenAI的DALL-E 3以及其他竞争对手相比,它因画面扭曲和对细节的处理不足而被视为不足。然而,Adobe正试图通过其第三代模型——Firefly Image 3来改善这一状况,该模型于本周在公司的Max London会议期间发布。 这款现已在Photoshop(测试版)和Adobe的Firefly网络应用中可用的模型,比前两代(Image 2和Image 1)生成的图像更“真实”,这归功于其对更长、更复杂的提示和场景的理解能力,以及改进的照明和文字生成功能。Adobe表示,它应该能更准确地渲染包括排版、图标、栅格图像和线条艺术在内的内容,并且在描绘拥挤人群和具有“详细特征”及“多种情绪和表情”的人物方面“显著”更加娴熟。 image 2 据非正式测试显示,Image 3确实比Image 2有所提升。 image 3 以下是Image 3和Image 2对比的示例,展示了Image 3在场景理解方面的进步: Image 3的改进无疑得益于更大、更多样化的训练数据集。与Image 2和Image 1一样,Image 3是在Adobe Stock上传内容、已授权和版权到期的公共领域内容的基础上进行训练的。Adobe Stock不断增长,相应的可用训练数据集也在增加。 为了避免诉讼并将自己定位为一个更“道德”的选择,Adobe对训练数据集中的Adobe Stock贡献者实施了支付计划,尽管该计划的条款相当不透明。有争议的是,Adobe还在训练Firefly模型时使用了AI生成的图像,有些人认为这是一种数据洗白行为。 最近的报道揭示,Adobe Stock中的AI生成图像没有从Firefly图像生成模型的训练数据中排除,在这些图像可能包含重复使用的版权材料的情况下,这是一个令人担忧的前景。Adobe为这一做法辩护,声称AI生成的图像只占其训练数据的一小部分,并经过审核过程以确保它们不会展示商标或可识别的角色,或引用艺术家的名字。 尽管拥有更多样化、更“道德”来源的训练数据以及内容过滤器和其他安全措施,也不能保证完全无瑕疵的体验。Image 3的真正测试将在社区开始广泛使用后到来。 与此同时,Image 3为Photoshop带来了几项新的AI驱动功能,不仅仅是增强的图文转换能力。 Image 3的“风格引擎”和新的自动风格化开关,让模型能够生成更广泛的颜色、背景和主题姿势。这些功能被整合到了参照图像选项中,允许用户根据他们希望其未来生成内容 对齐的图像的颜色或调性来调整模型。 新增的三个生成工具——生成背景、生成相似和增强细节——利用Image 3执行精确的图像编辑。生成背景将背景替换为与现有图像融合的生成背景,生成相似则提供照片选定部分的变体(例如人物或物体)。至于增强细节,它则“微调”图像以提高清晰度和清晰度。 Adobe表示,当前的定价层将保持不变,其赔偿政策,声明Adobe将支付与Firefly生成作品相关的版权索赔,也不会改变,其AI生成内容的水印方法也是如此。内容凭证——标识AI生成媒体的元数据——将继续自动附加到网络上和Photoshop中的所有Firefly图像生成上,无论是从头开始生成还是部分使用生成功能编辑的。
研究发现:提示中加入数百个示例显著提升大型语言模型的性能
近期研究显示,当大型语言模型(LLMs)在提示中直接接收到数百甚至数千个示例时,它们在多种任务上的表现显著提升。这项由谷歌、DeepMind等机构的研究人员进行的研究探讨了LLMs在直接通过提示学习大量示例时性能的提升情况,这种方法被称为多示例上下文内学习(Many-Shot In-Context Learning,ICL)。 上下文内学习(ICL)意味着示例直接在上下文(即提示)中给出,不需像微调那样调整模型参数。后者耗时更多,也更昂贵。以往,由于模型一次不能处理和生成大量文本,通常只给模型提供少数几个示例(单示例、少示例)。现在,随着“上下文窗口”(一种短期记忆)的扩大,可以在提示中直接提供给模型数百甚至数千个示例(多示例)。 在使用谷歌的Gemini 1.5 Pro语言模型进行的测试中,该模型可以处理多达一百万个令牌(约70万词)的上下文。结果显示,多示例提示在翻译、总结、规划和回答问题等任务上的表现显著优于少示例提示。 例如,在使用大约1000个翻译示例的情况下,Gemini 1.5甚至在库尔德语和泰米尔语这两种语言的翻译上超越了谷歌翻译,这是迄今为止LLMs与谷歌翻译之间报告的最大差距。在新闻摘要方面,该模型几乎能与专门的程序相媲美,但偶尔会出现如错误的数据和时间等虚构信息,这些信息并未出现在学习示例中。此外,当示例超过50个后,性能开始下降,研究人员尚无法解释此现象。 对于复杂的逻辑任务,如数学或科学问题,研究人员让模型自己创造解决方案并将其作为额外的学习示例,这种方法(“强化ICL”)比人工创造的解决方案更为可靠。 在一个仅给出问题而不给解决方案的实验中(“无监督ICL”),对于某些逻辑任务,这种方法仍然比几个完整的示例效果更好。然而,它通常无法达到“强化ICL”自生成解决方案的水平。研究还发现,模型通过示例“遗忘”了预训练中的错误,并且在给予足够多的示例后甚至能识别抽象的数学模式。然而,示例的给出顺序对模型产生了影响,使提示变得更加复杂。为什么性能有时在示例更多时反而下降,这仍是一个悬而未决的问题。未来的研究需要澄清这一点。 总之,这些结果显示,语言模型可以从提示中的许多示例中可靠地学习。这可能会在未来使针对特定任务的耗时训练变得不再必要。
谷歌推出六大免费人工智能课程,助你轻松启程AI学习之旅
近年来,人工智能(AI)成为科技界的一颗冉冉升起的新星,越来越多的初学者渴望在这片神秘的领域里一探究竟。好消息是,现在有六门免费的AI在线课程,为初学者提供了一条系统的学习路径。每一门课程都旨在以简洁明了的形式介绍基本概念和实用工具,让你轻松开启AI学习之旅! 1. 生成型AI入门:Introduction to Generative AI | Google Cloud Skills Boost 这门课程将带你初识生成型AI,解释其与传统机器学习方法的不同,并探索生成型AI的应用场景。课程中还包括了如何使用谷歌开发的工具来创建自己的AI驱动应用的实操演示,非常适合对AI内容生成及跨领域创新感兴趣的学者。 2. 负责任的AI入门:. Introduction to Responsible AI 本课程关注AI技术的伦理方面,介绍负责任的AI的重要性及其在AI系统开发中的应用。课程内容还涵盖了谷歌的七大AI原则,指导学员如何在项目中负责任地实施AI,确保AI技术的使用既符合道德标准又对社会有益。 3. 变压器模型与BERT模型深度解析:Transformer Models and BERT Model 这门课程将深入探讨变压器模型和双向编码器表示变换器(BERT)模型,讲解变压器架构的各个组成部分,如自注意力机制,并探讨其在文本分类和问答等应用中的使用。适合对最新自然语言处理技术感兴趣的学员。 4. 大型语言模型入门:Introduction to Large Language Models: 本模块介绍大型语言模型及其应用场景,学员将了解如何通过提示调整来提升模型性能。课程还包含了使用谷歌工具开发大型语言模型应用的实用信息,帮助学员实践这些模型的部署。 5. 编码器-解码器架构:Encoder-Decoder Architecture: 编码器-解码器架构是理解AI如何处理文本总结和机器翻译等序列到序列任务的基础。本课程解释了这一架构的主要组成部分,并提供了一个实际的实验室,让学员可以使用TensorFlow编写一个简单的编码器-解码器模型,这种实践经验对于将AI应用于语言任务至关重要。 6. 注意力机制入门:Attention Mechanism 这门课程介绍了注意力机制,这是一种关键组件,通过使神经网络能够专注于输入序列的特定部分来提高性能。课程内容包括注意力机制在机器翻译和文本总结等机器学习任务中的应用,帮助学员更好地理解如何通过注意力技术改善模型性能。 每门课程的完成时间大约为45分钟,并且完成后可获得数字徽章,学员可以在专业平台上展示他们的新技能。这些课程为AI的基础知识到高级算法和架构的探索提供了完美的基础。
COCONut:打造下一代通用分割数据集,重塑计算机视觉基准
近年来,计算机视觉技术由于像COCO这样的综合基准数据集的推动而取得了飞速发展。但是,自COCO面世近十年后,其作为现代AI模型基准的适用性正受到质疑。其标注可能包含早期计算机视觉研究中的偏见和细微差别。随着模型在COCO数据集上的表现逐渐趋于平稳,人们担心过度拟合数据集的特定特征,可能限制了其在现实世界中的应用性。 下载: COCONut: Modernizing COCO Segmentation 为了使COCO分割现代化,研究人员在本文中提出了COCONut——一种全新的、大规模的通用分割数据集。与之前创建大型数据集时常常为了扩展而牺牲标签精度不同,COCONut提供了383K张由人工验证的掩码标记图像。想象一下手工标注数百万个图像中的物体,这将需要数年时间!COCONut通过一个创新的辅助人工标注流程解决了这一挑战,该流程利用神经网络来增强人工标注者的工作效率。 这一流程包括四个关键阶段:机器生成预测、人工检查和编辑、掩码生成/精细化以及专家质量验证。在每个阶段,不同的神经模型分别处理“物体”(可数对象)和“非物体”(无定形区域)类,以确保标注的高质量。 但这个辅助人工流程是如何实际运作的呢?在第一阶段,边界框检测器和掩码分割器分别为“物体”和“非物体”类生成初步提议。人工标注者随后检查这些提议,并根据需要编辑或新增提议。精细化后的框和点被送入不同的模块生成最终的分割掩码。最后,专家标注者验证这些掩码的随机样本,重新标记任何不符合严格质量标准的掩码。 为了扩大数据集规模的同时保持质量,研究人员构建了一个数据引擎。它使用标注数据反复训练神经网络,为标注流程生成更优的提议。这一正向反馈循环,加上来自其他数据集的额外图像,最终形成了包含358K张图像和475万个掩码的COCONut-L分割。 研究人员进行了全面分析,将COCONut的标注与纯人工标注进行了比较。他们的专家标注者在“物体”和“非物体”掩码上展现了高度一致性。与此同时,辅助人工流程显著加快了“物体”类的标注速度。COCONut分为三种规模——COCONut-S(118K张图像)、COCONut-B(242K张图像)和COCONut-L(358K张图像,带475万个掩码)。量化结果显示,随着训练集规模从COCONut-S扩展到COCONut-L,各种神经架构的表现都有所改善。 有趣的是,尽管较大的伪标签数据集带来的收益有限,但在完全由人工标注的COCONut-B上训练带来了最显著的性能提升。这强调了人工标注 数据对于训练强大的分割模型的重要性。 COCONut代表了COCO基准现代化的重大进步。凭借其精心人工验证的标注和严格策划的25K图像验证集(COCONut-val),它有望成为评估当代分割模型的更具挑战性的测试平台。COCONut的开源发布为开发更能力强大、更公正的计算机视觉系统铺平了道路,这些系统适用于现实世界的场景。
AI法庭革命:如何一款名为JusticeText的程序在威斯康星州的一起性侵案中揭示了警方的不当行为
上一年7月25号,在美国威斯康星州的戴恩县,一个看起来平平无奇的刑事案件引爆了一场法律风暴。这不仅仅是因为案件本身,而是因为辩护律师用上了一项黑科技——人工智能。想象一下,这是一部现实版的《少数派报告》。 让我们先来说说这位辩护律师杰萨·尼科尔森·戈茨,她在为自己的客户辩护,这位不幸的灵魂被控在2021年的一次Tinder约会后犯有性侵罪行。就在庭前动议阶段,杰萨的搭档发现了一个问题:主调查官在使用身体摄像头时,似乎有点左支右绌。根据部门的政策,他应该全程佩戴摄像头的。 于是,杰萨索要了与调查相关的录像,警方交出了40小时的视频。通常这种海量数据的倾倒在审判前夕才会发生,对于资源不足的辩护律师来说,这简直是噩梦。但这次不同,因为杰萨使用了JusticeText——一个由两位芝加哥大学计算机科学系毕业生开发的AI程序。这个程序可以快速转录并标记摄像头的音频数据,将长时间的工作压缩到几分钟内完成。 尽管JusticeText没有找到直接证明客户无辜的证据,但它确实揭示了警方的一些问题,特别是一些“明显且可能的有利证据被销毁”的迹象。当杰萨在JusticeText分析的视频中看到调查员对证人说“我尽量说得含糊一些,因为我不想这被记录下来”时,她感到震惊。这段对话后来成了案件被驳回的关键。 法官在3月8日的裁决中提到,由于调查官的行为,被告的辩护权益受到了无法挽回的损害,因此决定驳回这起案件。杰萨·尼科尔森·戈茨因此感叹道:“如果没有JusticeText,审判就会如期进行,而不是被推迟并最终驳回。这彻底改变了我处理发现阶段材料的方式,因为现在我对外面的一切都充满了好奇。” 这就是在现代法律斗争中,AI如何成为一名不可或缺的战士。而这只是个开始,许多类似JusticeText的程序正在被开发和使用,未来的法庭对决可能将更多依赖这些智能工具。
波士顿动力全新电动版Atlas机器人亮相,引领实际应用新篇章
近日,波士顿动力公司在其液压动力的Atlas机器人“退休”后,推出了全新的电动版Atlas,该机器人预计将投入实际应用中。An Electric New Era for Atlas | Boston Dynamics 波士顿动力,这家坐落在美国波士顿的工程与机器人设计巨头,早在2013年就发布了6.2英尺高的Atlas人形机器人。这些年来,我们经常能在视频里看到液压Atlas在假装的建筑工地上跳跃、舞蹈,甚至扔工具包。 时隔十一年,波士顿动力宣布Atlas机器人可以“轻松一下”退休了。取而代之的是全新的电动版Atlas。这一代的Atlas头部装有环形灯,身体部件可旋转,不仅更强壮、更灵巧,也更加敏捷。 虽然外形似人,新Atlas在执行任务时的移动方式却追求效率最大化,不受人类动作范围的限制。 新版Atlas的目标是承担那些单调、肮脏甚至危险的任务。为了测试并迭代Atlas的应用,波士顿动力将与合作伙伴共同研发,首批合作伙伴为现代汽车。 正如公司在博客中所言:“现代汽车团队正在打造下一代汽车制造能力,这将成为新Atlas应用的完美试验场。在接下来的几个月乃至几年里,我们很激动能展示这款世界上最动态的人形机器人的真正能力——无论是在实验室、工厂还是我们的生活中。” 此外,电动Atlas将在液压版的基础上进行扩展,例如,波士顿动力表示将探索多种新的抓取器变体,以满足客户环境中预期的多样化操控需求。 新Atlas还将配备新的人工智能和机器学习工具,如增强学习和计算机视觉,使其能够高效适应复杂的实际情况。 波士顿动力表示:“我们有一个强大的机器学习专家团队正在塑造我们的产品,我们准备立即将有影响力的人工智能推向市场……随着Atlas的发展,这一切将变得更好、更快。”