Salesforce正式推出其AI代理开发平台Agentforce,这一平台为企业和客户提供了低代码或无代码的方式来部署聊天机器人。OpenTable、Saks和Wiley等公司已经开始应用该平台。 Agentforce旨在实现自动化,而不仅仅依赖人类互动来完成任务。Salesforce表示,这些AI代理能够根据数据变化、业务规则或预构建的自动化流程触发操作。此外,Salesforce在官网强调了Agentforce与人类的协作能力:“人与AI代理共同推动客户成功。”该平台的功能远超一般的聊天机器人或“共助”(copilot)功能,这可能也是针对微软的微妙回应。微软不久前为Dynamics 365发布了10个AI代理工具,Salesforce CEO Marc Benioff甚至将这些工具戏称为“回归版Clippy”,暗指其易出错并且存在数据泄露风险。 AI如今已成为Salesforce的核心战略之一,Slack的CEO Denise Dresser也将公司AI能力作为增强Slack功能的重心,希望将Slack发展为一个“工作操作系统”。Agentforce在Dresser的愿景中占据重要位置。 在此次发布的Agentforce服务中,面向客户的“服务代理”按会话计费,每次2美元。而“代理构建器”则为用户提供了模板,以便于创建自定义的AI代理。
开源组织OSI(Open Source Initiative)正式发布了“开放”人工智能的定义
开源组织OSI(Open Source Initiative)正式发布了“开放”人工智能的定义,这一举措或将引发与Meta等科技巨头的冲突。OSI一直以来在开源软件领域设立了行业标准,但AI系统包含训练数据等元素,超出了传统许可证的范畴。根据OSI的新定义,要被视为真正的开源AI系统,必须满足以下要求: 这一定义直接挑战了Meta的Llama模型。虽然Llama是目前最大规模的公开可用AI模型之一,但它对商业用途设置了限制(例如面向超过7亿用户的应用程序),且并未公开训练数据,因此未达到OSI对开源的标准,无法做到完全自由的使用、修改和共享。 Meta发言人Faith Eischen对《The Verge》表示,虽然Meta在许多方面与OSI立场一致,但不认同这一定义。Eischen称,“没有单一的开源AI定义,因为传统的开源定义并不能涵盖当今快速发展的AI模型的复杂性。” OSI在开源软件领域已广泛树立了25年的标准,帮助开发者在不受法律诉讼或许可陷阱的威胁下进行协作创新。如今,AI的快速发展让科技巨头必须选择:要么接受这一原则,要么舍弃。Linux基金会近期也试图定义“开源AI”,反映了在AI时代,传统开源价值观如何适应新局势的激烈讨论。 OSI的最新定义也获得了业界的支持。Hugging Face CEO Clément Delangue称此定义“对推动AI开放性讨论具有重大意义,尤其在训练数据的重要性方面。”OSI执行董事Stefano Maffulli表示,这一定义的发布经过两年打磨,得到了全球专家的协作支持,包括机器学习和自然语言处理领域的学者、哲学家以及创用CC(Creative Commons)社区的内容创作者等。 Meta则将训练数据限制解释为“安全”考量,但批评者认为,Meta更可能是为了降低法律风险,保护其竞争优势。大部分AI模型几乎肯定使用了受版权保护的内容进行训练。据《纽约时报》报道,Meta内部已承认其训练数据中含有版权内容,因为“我们无法避免收集到这些内容。”目前,Meta、OpenAI、Perplexity和Anthropic等公司正面临多起侵犯版权的诉讼。 Maffulli认为,开源历史正在重演。他指出,Meta当前的论调类似于90年代微软面对开源威胁时的态度,Meta强调其在Llama上的大量投入,并质疑其他人是否有能力做同样的事。Maffulli将此视为大型科技公司通过成本和复杂性来合理化技术封闭的策略。他形容这些训练数据是“秘密武器”,“这是他们的核心知识产权。”
Gemini 2.0可能会在12月发布
Gemini 2.0可能会在12月发布,预计带来整体性能提升。与此同时,有传言称ChatGPT-5也可能同期推出。尽管OpenAI CEO Sam Altman此前称ChatGPT-5的消息为“假新闻”,但现在已有报道称Google的Gemini 2.0或将于未来几个月上线。 根据《The Verge》和9to5Google的报道,Google上次进行重大Gemini升级是在今年2月推出的Gemini 1.5版本。Gemini不仅是Google AI聊天机器人系列的名字,也是背后的核心模型代号。尽管此次报告未具体说明Gemini 2.0的改进内容,但以往升级经验来看,用户可期待更智能的回复、更快的处理速度、更长的输入支持,以及更稳定的推理和编码能力。 不过,报道指出,Gemini 2.0的性能提升可能不如开发者最初预期,反映出所有大型语言模型(LLM)目前普遍面临的技术挑战。 如果Google和OpenAI真的在年底前推出AI模型升级,将进一步印证科技巨头们在人工智能上的投入力度,争取在这场AI竞赛中领跑。近期已有多项新AI工具面世,包括视频生成、图像生成升级和个性化搜索功能等。同时,iPhone用户也将在下周首次体验Apple Intelligence的AI增强功能。 然而,大家仍在等待Google在I/O大会上展示的下一代Project Astra AI助手的正式发布。Project Astra结合了多种输入输出方式,旨在提供更自然、智能的交互体验,或将成为未来AI助手的全新标杆。
别再盯着AI图像生成器了,一位“自主AI艺术家”刚在苏富比拍卖行赚了35.16万美元!
人们常说,尽管AI图像生成器在发展,仍需要人类的创意介入,AI不可能完全取代艺术家。然而,“全自主AI艺术家”Botto刚刚在苏富比拍出351,600美元的作品,似乎打破了这一传统观念。自2021年“艺术生涯”开始以来,Botto的作品已累计售出超400万美元。这位非人类艺术家不仅生成自己的创意作品,还通过一个拥有15,000成员的社区BottoDAO进行筛选,由他们决定每周哪些作品被铸成NFT,这一过程也反过来影响了Botto的创作“口味”。 Botto由德国艺术家Mario Klingemann和软件开发团队ElevenYellow共同构思。Botto至今已有“创世纪”、“间隙”以及“时空回声”等艺术阶段,并在苏富比推出了《阈限的梦境》等作品。此次名为“超然舞台:Botto,一位去中心化的AI艺术家”的展览共售出六幅NFT作品,超出预期价格。由于AI作品无法获得版权,NFT链上身份验证显得尤为重要,这赋予购买者对“原始版本”的拥有权。 Botto的合作者Simon Hudson表示:“三年时间对艺术史来说不算长,但在我们的计算未来中,这几乎可以视为‘瞬间’。Botto的展览‘超然舞台’将成为这一AI艺术实体真正意义浮现的早期信号。”苏富比数字艺术主管Michael Bouhanna则评论称:“‘超然舞台’不仅是Botto历程中的重要里程碑,还突显了AI对艺术的变革潜力。Botto通过集体参与,挑战了传统艺术创作的观念,向人机协作的未来迈进。” 尽管NFT市场在2022年泡沫破裂后有所冷却,但像Botto这样的AI艺术家可能为这一市场带来新的活力。不过,这种需求是否可持续还有待观察——是人们出于新奇才购买,还是这类机器人创作的作品有真正的市场价值?目前,AI艺术依然在品牌推广中引发争议。爱尔兰交通局最近发布的AI万圣节艺术作品就因“AI标签”遭遇网友批评,说明了公众对AI艺术的复杂情绪。
谷歌推出了全新AI代理—Jarvis!
预计今年12月推出的Jarvis将大显身手,助力企业完成开发、客户关系管理(CRM)、企业资源计划(ERP)等多项任务。据《The Information》报道,Google正致力于开发Jarvis,这款AI系统基于其全新语言模型Gemini 2.0,支持用户在Chrome浏览器上自动化操作,如进行研究、购物等。它不仅具备读取和理解截图的功能,还能生成文本并模拟用户操作,为企业和个人用户带来更多便利。 目前,AI自动化市场已引入多方竞争者。除Google外,Anthropic和OpenAI等公司也在开发类似技术,推动Agentic AI领域的创新。Anthropic的最新功能“计算机使用”能力可让开发者通过Claude 3.5 Sonnet与Anthropic API进行交互,AI能阅读和解释屏幕内容、输入文本、移动光标、点击按钮,并在窗口和应用间切换。这种高效自动化的方式远优于传统的流程自动化(RPA),为用户操作电脑开辟了全新路径。 虽然Jarvis看似面向普通消费者,但其浏览器端的操作能力对企业用户同样适用,特别是在依赖网页端的开发、工作流和自动化管理等领域。业界传言,Google可能比Anthropic更早具备基于截图的坐标识别能力,表明该公司早已在AI自动化领域进行深入探索。 与此同时,OpenAI也在研发类似功能,有消息称其内部已有一项名为“Tools”的功能,与Anthropic的技术理念如出一辙。此外,Meta也在缩小其语言模型的尺寸,以实现智能手机兼容性,而微软则在其Copilot中新增了“Vision”功能,可以识别图像并回答相关问题。苹果也在通过Apple Intelligence更新,让Siri具备更强的自动化能力。 综上,AI驱动的自动化操作技术正逐渐改变人们的计算机交互方式,Jarvis和其他系统的推出或将掀起新一轮自动化浪潮,为用户带来前所未有的操作效率和智能体验。
苹果全新推出的Ferret-UI 2 AI系统,能够在iPhone、iPad、安卓设备以及Apple TV上操控应用程序,实现跨平台的智能交互
苹果公司推出了一款名为Ferret-UI 2的全新AI系统 https://huggingface.co/spaces/jadechoghari/ferret-demo ,具备跨设备读取和控制应用程序的能力,支持iPhone、iPad、安卓设备、网络浏览器和Apple TV。该系统在UI元素识别测试中获得了89.73的高分,远超GPT-4o的77.73分,不仅在文本和按钮识别等基础任务上有显著提升,在复杂操作方面也表现出色。 Ferret-UI 2能够理解用户意图,而非依赖具体的点击坐标。举个例子,当用户输入“请确认您的输入”时,系统能识别出相关按钮,而不需要精确的定位数据。这项技术得益于苹果研究团队使用GPT-4o的视觉能力生成的高质量训练数据,从而帮助系统更好地理解UI元素之间的空间关系。 该系统采用自适应架构,在多个平台上识别UI元素。其内置算法可根据不同平台的需求自动平衡图像分辨率和处理需求,既保留信息又有效率。测试结果显示,Ferret-UI 2在跨平台上表现良好,特别是使用iPhone数据训练的模型在iPad上实现68%的准确率,在安卓设备上达到71%。但系统在移动设备与电视或网页接口之间的转换上遇到了一些困难,研究人员认为这是由屏幕布局差异引起的。 此外,苹果测试了多种语言模型,其中Llama-3表现最佳,但体积更小的Gemma-2B也取得了不错的成绩。Llama和Gemma版本的Ferret UI模型目前可在Hugging Face平台获取,配有演示版本。与此同时,微软发布了一款名为OmniParser的开源工具,可以将屏幕内容转换为结构化数据,这也展示了业内对UI理解AI技术的关注。 苹果还发布了一个名为CAMPHOR的框架,通过多AI代理协作来完成复杂任务。结合Ferret-UI 2,该技术有望使Siri等语音助手在未来实现更复杂的任务,例如通过语音命令查找并预订餐厅,进一步提升用户体验。 Ferret-UI 2的推出意味着苹果在打造能够自然理解和操作人类UI界面的AI系统方面迈出了重要一步,为智能交互技术树立了新的标杆。
Google DeepMind的研究人员提出了Talker-Reasoner框架
AI智能体在应对各种任务时,常需要不同的速度、推理和规划能力。理想情况下,智能体应能区分何时使用直觉记忆,何时利用更复杂的推理能力。然而,设计能根据任务需求正确执行的智能系统仍是一项挑战。 在一项最新论文中,Google DeepMind的研究人员提出了Talker-Reasoner框架,这是一个受人类“双系统”思维模型启发的智能体架构。该框架旨在为AI智能体找到不同推理方式之间的最佳平衡,以实现更顺畅的用户体验。 人类与AI的系统1和系统2思维 诺贝尔奖得主丹尼尔·卡尼曼的“双系统”理论表明,人类的思维由两个不同的系统驱动。系统1是快速、直觉且自动的,负责我们的快速判断,例如应对突发事件或识别熟悉的模式。系统2则缓慢、深思熟虑且分析性强,负责复杂问题的解决、规划和推理。 这两个系统并非完全独立,而是相互影响。系统1生成直觉和初步判断,系统2对这些判断进行评估,并在认可后将其整合为明确的信念和选择。这种互动使人类能够灵活地应对从日常生活到复杂问题的多种情境。 目前,大多数AI智能体主要依赖系统1模式,擅长模式识别、快速反应和重复性任务。然而,在需要多步骤规划、复杂推理和战略性决策的场景中,AI往往难以胜任,这正是系统2思维的强项。 Talker-Reasoner框架 DeepMind提出的Talker-Reasoner框架赋予AI智能体系统1和系统2的能力。它将智能体分为“Talker”(对话者)和“Reasoner”(推理者)两个模块。 研究人员写道:“Talker专注于生成自然且连贯的对话,而Reasoner专注于多步骤规划和基于环境信息进行推理。” 这两个模块通过共享记忆系统进行交互。Reasoner更新其信念和推理结果,Talker则从中检索信息以指导互动。这种异步通信方式允许Talker维持对话的连续性,即使Reasoner在后台进行较长时间的计算。 研究人员解释道:“这类似于行为科学中的双系统方法,系统1始终在线,而系统2只在需要时启动。Talker始终保持环境互动,Reasoner则仅在Talker需要时或通过记忆读取信念更新。” Talker-Reasoner框架应用于AI辅导 研究人员在睡眠辅导应用中测试了Talker-Reasoner框架。该AI教练通过自然语言与用户互动,提供个性化的睡眠改善指导。这种应用需要快速、情感共鸣的对话和基于知识的深思熟虑的推理。 在此应用中,Talker组件负责对话,提供情感支持并引导用户完成辅导过程的不同阶段。Reasoner则维护用户的睡眠问题、目标、习惯和环境的信念状态,并基于这些信息生成个性化建议和多步骤计划。这一框架同样适用于客户服务和个性化教育等其他应用场景。 未来研究方向 DeepMind研究人员指出,未来研究的一项重点是优化Talker与Reasoner的交互。理想情况下,Talker应能自动判断何时需要Reasoner的介入,以减少不必要的计算,提高整体效率。 另一方向是扩展框架,使其整合多个Reasoner,每个Reasoner专注于不同类型的推理或知识领域。这样可以使智能体更好地应对复杂任务,提供更全面的支持。
Google推出新的医疗基础工具CT Foundation:适用于3D CT体积影像的研究工具
CT Foundation(https://github.com/Google-Health/imaging-research/tree/master/ct-foundation)是一个面向3D CT体积影像的基础工具,基于Google在胸部X射线、皮肤病和数字病理学方面的技术,进一步扩展到3D成像领域。近年来,开发人员和研究人员在构建AI应用方面取得了显著进展。Google Research通过提供用于放射学、数字病理和皮肤病学的易用嵌入式API,帮助AI开发者以更少的数据和计算资源训练模型。但这些应用主要集中在2D成像,而实际诊断中,医生通常依赖3D影像做出复杂的判断。以CT扫描为例,这是一种常见的3D医疗成像技术,每年仅在美国就有超过7000万次CT扫描,主要用于肺癌筛查、神经系统急诊评估、心脏和创伤成像,以及异常X光检查后的进一步检查。然而,由于CT影像具有体积特性,比2D X光更复杂、耗时且需要更大计算和存储资源。 通常情况下,CT扫描数据以标准DICOM格式的2D图像序列存储,然后重新组合成3D体积用于观察或进一步分析。Google于2018年开发了一个低剂量胸部CT影像的肺癌检测研究模型,并在之后改进模型,将其应用于多种临床工作流程,并与欧洲的Aidence公司和印度的Apollo Radiology International合作,将模型投入生产。基于多模态头部CT影像的研究,Google早前在Med-Gemini中描述了自动报告生成的研究成果。 基于Google在3D医学影像模型训练方面的经验,以及CT在诊断医学中的重要性,Google设计了CT Foundation,使研究人员和开发者能够更加轻松地构建适用于不同身体部位的CT影像模型。CT Foundation是一个新发布的医疗影像嵌入工具,它可以将CT体积影像输入转化为信息丰富的数值嵌入,用于快速训练模型。此模型仅供研究使用,不可用于患者护理或诊断治疗。开发者和研究人员可申请免费获取CT Foundation API的访问权限。Google还提供了一个示例代码笔记本,展示如何使用公开的NLST数据进行肺癌检测模型的训练。 CT Foundation的工作原理 CT Foundation能够处理DICOM格式的CT体积影像,并生成1,408维的嵌入向量,汇总重要的器官、组织及异常信息。CT Foundation API自动处理原始DICOM图像,将切片排序、合成为体积影像、进行模型推理并返回CT嵌入结果,免去用户的预处理步骤。用户可以将这些嵌入向量用于分类模型(如逻辑回归、多层感知器)训练,在较少数据下实现高性能,同时显著降低计算资源消耗。 CT Foundation基于VideoCoCa(视频-文本模型)设计,该模型从2D CoCa(对比描述生成模型)延伸而来,专为2D图像与文本的高效迁移学习。Google首先训练了一个专用的医学影像2D CoCa模型,将其作为VideoCoCa的基础,再使用轴向CT切片与放射学报告共同训练VideoCoCa模型。 CT Foundation的评估 为测试CT Foundation的实用性和泛化能力,Google在七个分类任务中评估其数据效率,包括头部、胸部和腹盆部的异常检测任务,涵盖脑出血、胸部和心脏钙化、肺癌预测、腹部病灶、肾结石和腹主动脉瘤等。除了肺癌预测和脑出血任务外,其他任务的标签均通过放射学报告自动提取。肺癌预测任务使用了来自NLST的2年内癌症确诊数据,脑出血任务则由放射科医生标注。Google利用不同大小的训练数据集,评估嵌入向量在多层感知器模型上的数据高效性,使用AUC(ROC曲线下面积)作为评估指标,AUC范围为0.0–1.0,其中1.0为完美模型,0.5为随机猜测。 此外,Google还通过一个更通用的任务展示了CT Foundation在工作流应用中的实用性:身体部位分类。该任务目标是识别CT扫描的解剖区域。此任务的评估指标为八种不同检查类型的分类准确性:头/颈部、颈部、脊柱、心脏、血管造影、胸部、腹部/骨盆及四肢。 嵌入向量仅1,408维,模型训练仅需CPU即可完成,并可在Colab Python笔记本中操作。即便在训练数据有限的情况下,除一个任务外,其余均能达到超过0.8的AUC。 总结 伴随CT Foundation的发布,Google提供了一个Python笔记本,帮助用户处理CT体积影像,进行模型训练和评估。CT Foundation以其高数据效率和低计算设计,使快速原型开发和研究成为可能,即使资源有限的情况下亦能应用。自动化处理DICOM格式数据的特性,也大大简化了CT建模流程,适合新手和经验丰富的研究人员和开发者。Google期待看到该工具在研究和开发领域的应用,也欢迎社区反馈CT Foundation的性能和应用案例。
为什么迈尔斯·布伦迪奇离开 OpenAI,下一步计划是什么
自从2015年OpenAI发布以来,迈尔斯·布伦迪奇一直热情支持OpenAI的使命。即便如此,迈尔斯还是做出离开这家理想公司的决定,希望能有更多时间专注于整个AI行业的核心议题,保持独立性,并自由发表见解。他宣布将创建或加入一个非营利组织,专注于AI政策研究和倡导。他的研究方向涵盖AI进展的评估和预测、前沿AI的安全与监管、AI的经济影响、有益AI应用的加速、计算资源治理以及“AI宏观战略”等方面。 为什么选择离开OpenAI? 迈尔斯离开的原因主要在于,他希望从行业外部影响AI的发展。他提到,内部发布限制影响了他的研究效率,此外他希望摆脱在政策讨论中的利益冲突,客观地提出独立见解。迈尔斯认为,在外部继续他的AGI(通用人工智能)准备工作,更有助于其对OpenAI及行业的政策研究,尤其是关注如何管理和部署更高级的AI能力。 未来的研究兴趣 迈尔斯的研究主要聚焦以下六个领域: 如何保持独立性? 迈尔斯计划保持研究的独立性,并与不同背景的行业、学术、民间和政府组织保持建设性互动。他提到,尽管OpenAI愿意提供资金、API积分和模型访问,但他将慎重考虑这些支持可能带来的独立性影响。此外,他表示愿意与各种不同观念的人合作,以展现更全面的AI政策观点。
Genmo发布了开源Mochi-1视频生成模型作为“研究预览”版本
生成式AI的竞争正在加剧,视频生成成为当前的核心战场之一,而Genmo正在以不同的方式切入这一领域。Genmo发布了其Mochi-1视频生成模型作为“研究预览”版本,并采用Apache 2.0开源许可证,使其在技术上更为开放,用户可以对其进行二次开发或重组。https://github.com/genmoai/models Mochi-1完全免费,用户可以在Genmo网站上直接尝试。开源属性还意味着该模型未来将登陆多种生成式AI平台,甚至有望在游戏PC上运行。随着视频生成领域的竞争激烈,不同服务各有所长,如Haiper提供的模板、Kling和Hailuo的逼真效果,或Pika Labs和Dream Machine的趣味特效,Genmo则专注于为开源领域带来最先进的技术。 Genmo的CEO Paras Jain表示,视频“运动”是模型评估的关键指标。他解释说,早期的视频生成模型有种“动态照片”的效果,但视频应以运动为主,Genmo团队为此进行了大量投资。这款模型虽小,但采用了一种全新的异步处理方式,通过100亿参数的变压器扩散模型,实现了强大的性能。 为了确保视频生成的准确性,Mochi-1仅使用视频数据进行训练,而非混合视频、图像和文本的传统方法,这种方法提升了模型对物理原理的理解。同时,Genmo团队也在提示语理解上投入巨大,以确保模型能准确生成符合用户需求的视频。 目前,Mochi-1的预览版视频分辨率被限制在480p。虽然清晰度有限,但Genmo希望这款模型能成为“开源领域的佼佼者”。Mochi-1不仅强调提示词的准确性,还通过类比OpenAI的DALL-E 3,利用视觉语言模型进行输出评估,以确保视频生成质量。 在众多竞争者中,Mochi-1并不是唯一的开源视频生成模型。AI公司Rhymes本周也发布了Allegro模型,这款模型支持15帧/秒、720p分辨率的视频生成。尽管Mochi-1的清晰度稍低,仅支持24帧/秒和420p,但其开源特性和运动表现使其在视频生成市场中独具优势。 目前,这些模型还无法在普通笔记本电脑上运行,但正如Jain所言,开源的优势在于未来可能通过优化让这些模型在低功率设备上运行,实现离线视频生成的潜力。