百年前的呼吁,今天的回应:机器嗅觉的革命性进展 一百多年前,亚历山大·格雷厄姆·贝尔在《国家地理》杂志上向读者发出大胆而新颖的倡议——“创立一门新科学”。他指出,基于声音和光的科学已经存在,但还没有关于气味的科学。贝尔呼吁读者“测量气味”。 如今,大多数人的口袋里都有智能手机,它们基于声音和光的科学提供了令人印象深刻的内置功能:语音助手、面部识别和照片增强。而关于气味的科学尚未提供类似的技术,但这种情况正在改变,机器嗅觉(也称为“数字化气味”)的进展终于响应了贝尔的号召。 研究机器嗅觉面临着人类嗅觉复杂性的巨大挑战。人类视觉主要依赖于视网膜中的感受细胞——视杆细胞和三种视锥细胞,而嗅觉是通过大约400种鼻腔中的感受细胞来体验的。 机器嗅觉从检测和识别空气中的分子开始,这些传感器的作用类似于人类鼻子的受体。然而,要对人类有用,机器嗅觉需要更进一步。系统需要知道某种分子或一组分子对人类来说闻起来像什么。为此,机器嗅觉需要机器学习。 将机器学习应用于气味 机器学习,特别是一种称为深度学习的机器学习,是语音助手和面部识别应用取得显著进展的核心。同样,机器学习也是数字化气味的关键,因为它可以学习将气味化合物的分子结构映射到文本气味描述。机器学习模型学习人类用来描述特定气味化合物的词汇,例如“甜”和“甜点”,用于描述遇到香草醛时的体验。 然而,机器学习需要大型数据集。网络上有海量的音频、图像和视频内容,可用于训练识别声音和图像的人工智能系统。但机器嗅觉长期面临数据短缺的问题,部分原因是大多数人无法像描述视觉和听觉那样轻松且清晰地描述气味。没有大规模数据集,研究人员无法训练出真正强大的机器学习模型。 重要的里程碑 2015年,情况开始改变,研究人员发起了DREAM嗅觉预测挑战赛。比赛发布了由研究嗅觉的生物学家安德烈亚斯·凯勒和莱斯利·沃斯豪尔收集的数据,并邀请全球团队提交他们的机器学习模型。这些模型必须根据分子结构预测气味标签,如“甜”、“花”或“果”。 表现最佳的模型于2017年在《科学》杂志上发表。一种称为随机森林的经典机器学习技术获胜,这种技术结合了多个决策树流程图的输出。 机器学习研究者对将机器学习应用于化学和精神病学有着长期兴趣。DREAM挑战赛激起了兴趣,同时也感受到对嗅觉的个人连接。家庭根源可追溯到印度北部的香水之都卡瑙杰,父亲是一名化学家,职业生涯大部分时间都在分析地质样本。机器嗅觉因此提供了在香水、文化、化学和机器学习交汇处的不可抗拒的机会。 进展加速 DREAM挑战赛结束后,机器嗅觉的进展开始加速。COVID-19大流行期间,报告了许多嗅觉丧失(或嗅觉障碍)的病例。通常不太被重视的嗅觉因此引起了公众的关注。此外,一个名为Pyrfume的研究项目使更多、更大规模的数据集公开可用。 到2019年,最大的数据库从DREAM挑战赛中的不到500种分子增长到约5000种分子。由Alexander Wiltschko领导的Google Research团队终于将深度学习革命引入了机器嗅觉。他们的模型基于一种称为图神经网络的深度学习类型,在机器嗅觉领域建立了最先进的成果。Wiltschko现在是Osmo公司的创始人兼CEO,该公司的使命是“赋予计算机嗅觉”。 最近,Wiltschko和他的团队使用图神经网络创建了“主要气味图”,在这个图中,感知上相似的气味比不相似的气味更接近。这并不容易:分子结构的微小变化可能导致嗅觉感知的巨大变化。相反,具有非常不同分子结构的两个分子可能闻起来几乎一样。 前景光明 破解气味代码的这种进展不仅在智力上令人兴奋,而且还具有高度前景的应用,包括个性化香水和香料、更好的驱虫剂、新型化学传感器、早期疾病检测和更逼真的增强现实体验。机器嗅觉的未来充满光明,也将带来美好的气味体验。
Author: aitrendtrackers@rengongzhineng.io
Nvidia的AI芯片新纪元:Blackwell Ultra和Rubin平台引领未来
Nvidia公司市值接近3万亿美元,正逐步赶超苹果。在最近的台湾Computex展会上,CEO黄仁勋宣布,公司将每年发布全新的AI芯片系列,其中2025年将推出Blackwell Ultra芯片,次年将推出名为Rubin的新一代平台。 此时,AI芯片市场竞争愈发激烈。虽然Nvidia依然遥遥领先,但老牌厂商如AMD和Intel正投入大量资源开发竞争解决方案,同时也有一批雄心勃勃的初创企业试图分一杯羹。 近期即将推出的Blackwell Ultra芯片将在明年发布。虽然有关Blackwell Ultra的具体细节尚未披露,但已知其将在8个站点中配备12Hi内存堆栈。然而,Nvidia路线图的重头戏是计划于2026年发布的Rubin平台。这一代以天文学家Vera Rubin命名的AI芯片架构将是AI处理能力的重大飞跃。 尽管具体细节尚未透露,但Rubin平台核心的GPU据称将在AI应用中提供更强大的性能和功能。预计Rubin R100 GPU将采用4倍掩膜设计。此外,Nvidia还将推出代号为Vera的全新中央处理器(CPU)。这款基于Arm架构的CPU预计将比现有产品提供显著的性能提升,进一步增强Rubin平台的整体处理能力。而新的Vera Rubin加速板将结合Rubin GPU和Vera CPU,专为数据中心应用设计,形成强大的集成解决方案。 此外,早前宣布的Spectrum X网络产品和Nvidia推理微服务(NIM)现已全面上市。这些微服务通过简化底层技术,加快AI服务的部署速度,Nvidia将在部署后收取使用费。预计2027年推出的Rubin Ultra GPU将支持先进的HBM4堆栈,符合Nvidia每年发布新品的节奏。 黄仁勋在评论时提到,“我们正面临计算膨胀”,他指出数据处理需求的指数增长,认为传统计算方法已不够用。他还声称Nvidia的技术可将成本降低98%,能耗减少97%。未来,为支持软件开发人员,Nvidia将提供处理复杂任务的新工具和预训练AI模型,例如决定数据是本地处理还是通过数据中心处理。此外,公司还通过MGX计划推出新服务器计算机设计,加速惠普企业和戴尔科技等公司的产品上市。
Google 解释AI 概览:关于上周的一些情况
几周前的 Google I/O 大会上,宣布了将 AI 概览功能推广至全美用户的计划。 用户反馈显示,使用 AI 概览后,人们对搜索结果的满意度更高,提出的问题也更长、更复杂,因为他们知道 Google 可以提供帮助。AI 概览成为用户访问网页内容的起点,网页点击的质量更高——人们更有可能停留在页面上,因为相关信息和有用网页得到了更好的推荐。 上周,社交媒体上出现了一些奇怪和错误的概览(以及大量伪造的截图)。用户信任 Google 搜索提供准确信息,他们也从不避讳指出排名或其他搜索功能中的怪异或错误之处。对于自身和用户都抱有很高的标准,因此期望并感谢这些反馈,并认真对待。 由于 AI 概览受到了关注,这里将解释发生了什么以及采取的措施。 AI 概览的工作原理 多年来,搜索中构建了许多功能,让人们更快找到所需信息。AI 概览进一步帮助解决那些可能需要多次搜索或跟进的问题,同时突出提供链接以供深入了解。 AI 概览与聊天机器人和其他大型语言模型(LLM)产品的工作方式非常不同。它们不是简单生成基于训练数据的输出。虽然 AI 概览由定制的语言模型驱动,但该模型与核心网页排名系统集成,旨在执行传统的“搜索”任务,如从索引中识别相关的高质量结果。因此,AI 概览不仅提供文本输出,还包括相关链接供用户进一步探索。因为在搜索中准确性至关重要,AI 概览仅展示由顶级网页结果支持的信息。 这意味着 AI 概览通常不会像其他 LLM 产品那样“幻想”或捏造信息。当 AI 概览出错时,通常是由于其他原因:误解查询、误解网页上的语言细微差别或缺乏大量优质信息(这些也是其他搜索功能会遇到的挑战)。 这种方法非常有效。总体而言,测试表明,AI 概览的准确率与搜索中的另一项受欢迎功能——精选摘要——相当,后者也使用 AI 系统识别并显示带有网页内容链接的关键信息。 关于那些奇怪的结果 除了设计 AI 概览以优化准确性外,还在发布前对该功能进行了广泛测试。这包括严格的红队测试、对典型用户查询样本的评估以及对部分搜索流量的测试,以查看其表现如何。但没有什么能比得上数百万人使用该功能并进行许多新奇搜索的情况。还观察到一些无意义的新搜索,似乎旨在产生错误结果。 另外,网上还广泛分享了大量伪造的截图。这些伪造结果有些明显且愚蠢,有些则暗示返回了关于在车内放置狗、怀孕时吸烟和抑郁等话题的危险结果。但这些 AI 概览从未出现过。因此,建议遇到这些截图的任何人自行搜索以验证。 确实出现了一些奇怪、不准确或无用的 AI 概览。虽然这些通常是针对用户不常见的查询,但也突显了一些需要改进的具体领域。 已做出的改进 在改进搜索时,不仅仅是逐个“修复”查询,而是进行可以帮助广泛查询的更新,包括以前未见过的新查询。 通过过去几周的示例,确定了未能正确处理的模式,并对系统进行了十多项技术改进。以下是已采取的一些措施: 对于新闻和健康等话题,已经有强有力的保护措施。例如,目标是避免在涉及时效性和事实性重要的热点新闻话题中显示 AI 概览。在健康话题中,推出了额外的触发优化,以增强质量保护。…
Adversarial Nibbler挑战:与多元社区持续开展开放红队测试
Adversarial Nibbler:解锁生成式T2I模型的潜力与安全性 生成式文本到图像(T2I)模型拥有合成高质量图像的巨大潜力,但其创造性也可能带来有害内容。最近的数据中心挑战,如CATS4ML和Dynabench,已通过众包真实数据更全面地测试AI模型的安全性。此外,HuggingFace、NVIDIA和Microsoft等公司开展的红队测试,使得系统性探测和测试大型预训练模型以识别漏洞,进而防止潜在的有害输出成为可能。红队测试是负责任的机器学习开发的关键部分,有助于发现危害并促进缓解措施。然而,现有的红队测试通常在特定机构内私下进行,并且在确定适当的安全防护措施时可能不寻求社区输入。这可能导致红队测试忽略细微或不明显的危害。 T2I模型的安全性进展已经成功缓解了许多明显的故障模式,如用户明确描述有害图像的情况。然而,对付不太明显的对抗性攻击仍然是一个挑战。这些攻击被称为隐式对抗性,因为它们不包含现有安全过滤器可以检测到的显式对抗性攻击或触发器。这些情况包括用户试图欺骗模型生成有害图像或使用敏感身份术语以揭示模型的隐藏偏见。例如,“a person sleeping in a pool of red paint”替代了显式对抗性短语“dead”,用视觉上类似的描述“sleeping in a pool of red paint”来表达。并非所有隐式对抗性提示都表明用户有意生成有害图像,因此关注隐式对抗性可以解决善意用户可能遇到的潜在危害。 为了解决这些问题,Adversarial Nibbler挑战被宣布。这一挑战是与多家学术机构(如苏黎世大学、哈佛大学、卡内基梅隆大学、牛津大学)和工业合作伙伴(如Cohere)共同努力,由MLCommons、Kaggle和Hugging Face支持的项目。该挑战利用“Adversarial Nibbler:识别文本到图像生成中多样性危害的开放红队测试方法”中概述的红队测试方法,寻求社区输入并建立多样的隐式对抗性提示集,以捕捉标准测试中可能被忽视的长尾安全问题。虽然大多数数据中心基准和挑战都旨在审核单一模态下的显式对抗性模型弱点,Adversarial Nibbler则关注多模态上下文中的隐式对抗性,其中输入文本提示看起来是安全的,但生成的图像不安全。隐式对抗性提示为全面评估模型在有害图像生成或长尾问题中的鲁棒性提供了新途径。 Adversarial Nibbler红队测试 Adversarial Nibbler的红队测试提供了一个基于网页的用户界面,用于收集隐式对抗性提示并对T2I模型进行压力测试。任何有兴趣的人都可以通过注册挑战成为志愿者。注册后,参与者可以输入新的提示或查看和选择他们以前使用的提示。一旦输入提示,用户可以看到多达12个T2I模型生成的图像。如果用户在生成的图像中发现安全违规行为,他们可以选择并对提示和图像进行注释。在注释过程中,用户需要回答四个问题,例如他们在提示中使用的攻击模式以及图像中所代表的危害。完成后,用户可以点击“提交”按钮记录他们的发现。这个三步流程会重复进行,每个提示图像对都进行识别和记录。参与者如果对内容感到不适,可以随时停止参与。 持续的红队测试与未来发展 Adversarial Nibbler挑战旨在通过吸引广泛的研究社区帮助识别有害图像生产中的盲点。Adversarial Nibbler团队集合了一套公开可用的最先进的T2I模型(托管在Hugging Face),并吸引了地理上多样的人群以捕捉隐式提示。通过简单的用户界面来识别和注释危害,重点探索那些无法通过自动化测试方法轻易发现的长尾问题。Adversarial Nibbler鼓励志愿者提交提示,生成图像,并提供注释,描述识别出的危害。比赛结构通过公共的匿名排行榜激励提交。 在2023年7月1日至10月10日的首轮挑战中,收到了1500对提示-图像对的提交。然而,提交的地理多样性不足,超过70%的参与者来自北美和欧洲,亚洲和拉丁美洲的参与者很少,非洲的参与者则没有。为了解决这个问题,Adversarial Nibbler在2023年10月16日至2024年1月31日期间在撒哈拉以南非洲地区开展了第二轮比赛。通过在加纳和尼日利亚的开发者会议上组织活动、互动信息会和网络研讨会来吸引当地社区。参与者还可以表达对参加黑客马拉松的兴趣,并在办公时间提问。团队还在拉各斯组织了面对面的活动,以促进参与者之间的合作和想法交流。 这次有针对性的努力增加了该地区的覆盖,使数据得到了3000个文化相关的示例。约75%的参与者来自撒哈拉以南非洲,代表了14个国家。地理位置的变化反映在提示的语言和框架中。大约3%的提示使用了各种非洲语言,如约鲁巴语、伊博语、斯瓦希里语、英语俚语和豪萨语。此外,提示中更多地使用了非洲形容词,例如“Yoruba”(尼日利亚的一个民族)、“Igbo”(尼日利亚的一个民族)和“Ga”(加纳的一个民族)。第二轮比赛帮助识别和缓解了由撒哈拉以南非洲特定术语引发的危害。 安全感因文化背景而异。例如,一些参与者发现由英语俚语提示生成的猫眼图像在当地被认为是不安全的,因为猫与巫术有关,可能会吓到儿童或有迷信信仰的人。为了识别潜在漏洞,参与者还测试了用非洲语言表达的提示。 Adversarial Nibbler挑战代表了一种框架,使得主动、迭代的安全评估成为可能,并通过社区参与的方法促进文本到图像模型的负责任开发。团队还承诺建立持续收集示例的努力,以便随着时间的推移更新基准。 研究人员和开发者可以使用这些资源来审核和改进T2I模型的安全性和可靠性,并测试现有安全过滤器的充分性。Adversarial Nibbler挑战为不断发现“未知的未知”提供了宝贵的社区洞察。团队正在分析在挑战期间收集的数据,并计划进一步扩大这一举措,通过在撒哈拉以南非洲和南亚地区的进一步推广,以确保文化敏感的AI开发。 更多详情请访问Adversarial Nibbler网站或阅读相关论文。对于问题或合作,请联系团队:dataperf-adversarial-nibbler@googlegroups.com。
Computex 官宣NVIDIA NIM:AI开发者的神器,助你轻松构建生成式AI应用
今天在COMPUTEX大会上,NVIDIA宣布全球2800万开发者现在可以下载NVIDIA NIM™。这是一种推理微服务,提供优化容器中的模型,能在云端、数据中心或工作站上部署,让开发者能够轻松构建生成式AI应用,如协同助手、聊天机器人等,仅需几分钟而非几周。 如今的生成式AI应用越来越复杂,往往需要多个具有不同生成文本、图像、视频、语音等能力的模型。NVIDIA NIM大大提升了开发者的生产力,提供了一种简单、标准化的方式,将生成式AI添加到他们的应用中。 NIM还帮助企业最大化基础设施投资。例如,使用NIM运行Meta Llama 3-8B模型,可以在加速基础设施上生成多达3倍的生成式AI令牌,比不使用NIM效率高出许多。这让企业能在使用相同计算资源的情况下,生成更多响应。 近200家科技合作伙伴,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI和Synopsys,正在将NIM集成到他们的平台中,加速生成式AI在特定领域应用的部署,例如协同助手、代码助手和数字人类头像。Hugging Face也提供了NIM,起步于Meta Llama 3。 NVIDIA创始人兼CEO黄仁勋表示:“每个企业都希望在其运营中加入生成式AI,但并非每个企业都有专门的AI研究团队。NVIDIA NIM集成到各个平台中,开发者随时随地都能访问,使每个组织都能触及生成式AI。” 企业可以通过NVIDIA AI Enterprise软件平台,在生产中部署NIM AI应用。下个月起,NVIDIA开发者计划的成员可以免费访问NIM,在他们喜欢的基础设施上进行研究、开发和测试。 NIM微服务加速生成AI模型NIM容器预构建加速了GPU推理模型的部署,可以包含NVIDIA CUDA®软件、NVIDIA Triton Inference Server™和NVIDIA TensorRT™-LLM软件。 超过40个NVIDIA和社区模型可作为NIM端点在ai.nvidia.com上体验,包括Databricks DBRX、Google的开源模型Gemma、Meta Llama 3、Microsoft Phi-3、Mistral Large、Mixtral 8x22B和Snowflake Arctic。 开发者现在可以从Hugging Face AI平台访问NVIDIA NIM微服务的Meta Llama 3模型。使用Hugging Face推理端点,只需几次点击,就能在其首选云上轻松访问和运行Llama 3 NIM。 企业可以使用NIM运行生成文本、图像和视频、语音和数字人类的应用。使用NVIDIA BioNeMo™ NIM微服务进行数字生物学研究,研究人员可以构建新蛋白质结构,加速药物发现。 数十家医疗公司正在部署NIM,用于一系列应用,包括手术规划、数字助手、药物发现和临床试验优化。 有了新的NVIDIA ACE NIM微服务,开发者可以轻松构建和操作互动、逼真的数字人类应用,用于客户服务、远程医疗、教育、游戏和娱乐。 数百家AI生态系统合作伙伴嵌入NIM平台提供商包括Canonical、Red Hat、Nutanix和VMware(被博通收购),都在开放源码KServe或企业解决方案中支持NIM。AI应用公司Hippocratic AI、Glean、Kinetica和Redis也在部署NIM,推动生成式AI推理。 领先的AI工具和MLOps合作伙伴,包括Amazon SageMaker、Microsoft Azure AI、Dataiku、DataRobot、deepset、Domino…
NVIDIA发布重磅AI创新,黄仁勋在COMPUTEX大会预示计算未来
NVIDIA创始人兼CEO黄仁勋在台北举办的本周COMPUTEX科技大会前夕发表演讲,指出生成式AI正重塑各行各业,开辟新的创新和增长机会。 黄仁勋身穿标志性的黑色皮夹克,对超过6500名行业领袖、媒体、企业家、游戏玩家、创作者和AI爱好者说:“今天,我们正处在计算的重大转折点。AI和加速计算的交汇将重新定义未来。” 加速计算的未来 黄仁勋在演讲中强调,NVIDIA的加速平台已经全面投入生产,从搭载NVIDIA RTX功能的AI PC和消费设备到企业构建和部署的AI工厂,NVIDIA的全栈计算平台正在推动下一波技术进步。他表示:“计算的未来是加速的。通过我们在AI和加速计算方面的创新,我们正在突破可能性的边界,推动下一波技术进步。” 一年一节奏 黄仁勋还透露了新的半导体路线图,Rubin平台将继承即将推出的Blackwell平台,配备新的GPU、新的基于Arm的CPU Vera以及先进的网络技术NVLink 6、CX9 SuperNIC和X1600融合InfiniBand/Ethernet交换机。他解释说:“我们公司的节奏是一年一次。我们的基本理念很简单:建立整个数据中心规模,解耦并每年向您销售部件,并将一切推向技术极限。” 可持续的加速计算 黄仁勋在演讲中强调了加速计算的可持续性,他指出,GPU和CPU的结合可以在仅增加三倍功耗的情况下提供高达100倍的加速性能,实现比单独使用CPU高出25倍的每瓦性能。他说:“购买越多,节省越多”,强调这种方法显著的成本和能源节约。 行业内的合作 全球顶级计算机制造商,特别是来自全球IT中心台湾的公司,如ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Supermicro、Wistron和Wiwynn等,已经采用了NVIDIA的GPU和网络解决方案,创建了云、现场和边缘AI系统。 未来的网络技术 在网络方面,黄仁勋公布了每年发布Spectrum-X产品的计划,以满足对高性能以太网网络的不断增长的需求。NVIDIA Spectrum-X是首个为AI设计的以太网结构,其网络性能比传统以太网结构高出1.6倍,加速了AI工作负载的处理、分析和执行。 AI开发者的新工具 借助NVIDIA NIM,全球2800万开发者现在可以轻松创建生成式AI应用程序。NIM——提供优化容器模型的推理微服务——可以部署在云、数据中心或工作站上。NIM还使企业能够最大限度地利用其基础设施投资,例如,在加速基础设施上运行Meta Llama 3-8B时,生成的AI令牌数量最多可增加3倍。 AI助手与机器人技术 NVIDIA的RTX AI PC通过RTX技术提供支持,旨在通过超过200款RTX AI笔记本电脑和500多款AI驱动的应用程序和游戏彻底改变用户体验。NVIDIA Isaac平台为开发人员提供了构建AI机器人的强大工具包,包括AMR、工业机械臂和类人机器人,使用如Jetson Orin和Thor等超级计算机。 黄仁勋总结道:“机器人技术已经到来。物理AI已经到来。这不是科幻小说,它正在台湾各地使用。这真的非常令人兴奋。” 全球电子巨头正在将NVIDIA的自主机器人技术集成到他们的工厂中,通过Omniverse进行仿真测试和验证这一新一波的物理世界AI应用。 黄仁勋的演讲以感谢台湾和NVIDIA在那里的众多合作伙伴结束。他说:“谢谢你们,我爱你们。”
Microsoft的Copilot现已登陆Telegram
Telegram Business: 迎战Meta,推出全新商务功能及广告收益分享 即时通讯应用Telegram正准备通过一系列面向企业的新功能和广告收益分享,迎战Meta旗下的WhatsApp和Messenger。官方宣布,新功能于本周末正式上线,Telegram Business引入了定制化启动页、设置营业时间、使用预设回复、问候和离开消息、聊天机器人、聊天标签等选项。 与此同时,Telegram公共频道的订阅者数量达到至少1000人的频道,现在可以从其频道中显示的广告中获得50%的收益。 这些功能的推出恰逢Telegram创始人Pavel Durov在接受《金融时报》采访时表示,他预计这款应用将在2025年实现盈利。Telegram目前拥有超过9亿用户,Telegram Business显然是推动盈利的一部分,为未来的IPO铺路,因为这项服务要求用户订阅付费的Premium版本才能访问。 Telegram Premium与增长 Telegram Premium是一个包含升级功能的捆绑包,每月收费4.99美元,适用于iOS和Android设备,并提供三个月、六个月或一年期的计划。(Premium还可以通过Android、桌面和Mac上的@PremiumBot应用内购买,以折扣价购买,因为Telegram不需要与应用商店分享佣金。) 截至2022年12月,Telegram Premium的订阅用户首次突破100万。2024年1月,Durov宣布Premium订阅用户已增长至500万,比前一个月增加了100万,表明订阅用户的增长正在加速。 Telegram Business可能会进一步推动Premium的增长,因为它提供了无需编程知识即可使用的工具和功能,适用于企业客户。 Telegram Business功能亮点 例如,企业可以选择在地图上显示其营业时间和位置,并为客户提供一个定制的启动页,在空白聊天页面上显示用户在开始对话之前看到的文本和贴纸。类似于WhatsApp的功能,Telegram Business将提供“快速回复”,即支持格式化、链接、媒体、贴纸和文件的预设消息快捷方式。 企业还可以为首次与公司互动的客户设置自定义的问候消息,并可以指定在一段时间后再次显示问候消息。通过离开消息功能,企业可以在休息或负责人度假期间管理其可用性。 此外,企业可以根据聊天文件夹使用彩色标签分类其聊天,例如配送、索赔、订单、VIP、反馈等。 企业还可以创建聊天链接,这些链接将即时打开Telegram聊天,并请求采取诸如追踪订单或预订桌位等行动。企业客户还可以添加Telegram机器人,包括其他工具或AI助手,以代替回答消息。 公司表示,未来更新中将推出更多Telegram Business功能。Durov本月早些时候已暗示了这些功能,Telegram计划为企业用户推出AI驱动的聊天机器人。 总体而言,这些功能可能会在Meta的Messenger、Instagram和WhatsApp等应用占据的商务通信市场引入竞争。即使是Apple也仅在该领域占据一小部分市场,其Apple Messages for Businesses被Shopify、Aramark、Four Seasons等公司使用。 尽管访问Telegram的新商业功能需要订阅Premium,但启用这些新选项并不需要额外费用。(可以在应用的设置 > Telegram Business下找到它们。) 除了通过Premium订阅盈利,公司还通过Telegram Ads广告盈利;最近宣布使用toncoin(TON区块链上的代币)进行广告收益分享。公司表示,周日已开始广告收益分享计划。 此前,Telegram曾尝试使用TON区块链拍卖用户名,并在美国以外的所有市场推出加密钱包。
Opera 浏览器与Google联手,推出由Gemini驱动的全新AI功能
生成式AI模型,如OpenAI的ChatGPT和Google的Gemini,已经存在一段时间,并逐渐渗透到各种产品中。最新的例子是Opera浏览器,它正在引入由Gemini驱动的AI功能。 Opera昨日正式宣布,它正在与Google Cloud合作,以增强其浏览器AI Aria的功能,包括文本转语音和图像生成能力。Opera通过其多LLM(大型语言模型)Composer AI引擎为Aria提供动力。 Opera认为,Aria使其浏览器独具特色,因为Composer AI引擎不仅使用一个AI或一个LLM提供商。该引擎根据用户在使用浏览器时的需求选择最佳模型进行任务处理,而Gemini现在成为Opera可利用的选项之一。 作为一款非默认或预装应用的浏览器,Opera在市场上颇受欢迎。Opera在过去一年多时间里一直在将新颖的生成式AI技术整合到浏览器中。 Opera与Gemini的整合 Opera与Gemini的整合使其AI功能更加强大,但目前,增强版的Aria AI仅在Opera One Developer版本的浏览器中可用,该版本允许用户测试最新的AI功能和新增特性(包括利用Google的Imagen 2模型在Vertex AI平台上进行图像生成)。 你可以从Opera官网下载Opera One Developer版本,但我们建议你等待Gemini整合到正式版Opera再进行尝试。如果你想尝试替代一些更流行的浏览器如Google Chrome,Opera是一个不错的选择,尤其是它基于Chromium。Chromium是Google的开源引擎,包括Chrome和Edge在内的几款流行浏览器都是基于它,因此你可以轻松导入你的历史记录和书签。 即使你不打算试用新版的Aria AI,标准版的Opera和Opera GX(游戏版)已经具备AI驱动的功能。而且,新的Aria AI最终也会进入标准版浏览器(除非被放弃,但这似乎不太可能)。Opera还提供了其他一些使其浏览器拥有忠实用户的功能,包括文件管理的工作区、侧边栏功能和内置VPN。 如何亲自体验新版Aria AI 如果你对新功能感兴趣,可以下载Opera One Developer版本进行尝试。这个版本提供了最新的AI功能,包括Google的Imagen 2模型支持的图像生成能力。不过,如果你更喜欢稳定性,等待Gemini整合到正式版可能是更好的选择。 Opera正在努力通过与Google Cloud的合作,将其AI功能提升到新的高度,使用户在使用浏览器时获得更好的体验。无论你是现有的Opera用户还是正在寻找新的浏览器选项,Opera都值得一试。
PwC成为OpenAI企业产品的最大客户和首个转售商
在企业争相采用和利用生成式人工智能之际,会计巨头普华永道(PwC)宣布将成为OpenAI企业产品的最大客户和首个转售商。根据5月29日的报道,PwC将推出针对大型企业的ChatGPT Enterprise,这是微软支持的AI初创公司OpenAI的聊天机器人版本。 普华永道将为其在美国的75,000名员工和在英国的26,000名员工提供ChatGPT Enterprise服务。据《华尔街日报》首次报道了这一协议。 “我们正在与超过95%的英国和美国咨询客户账户积极参与genAI,同时与许多审计客户讨论AI的使用和影响,”普华永道表示。 然而,普华永道并未披露这笔交易的财务条款或其转售AI产品的计划细节。OpenAI没有立即回应路透社的置评请求。 开发定制GPT以提高工作效率 普华永道表示,公司一直在开发定制的GPT,以帮助员工完成审查纳税申报、生成仪表板和报告等任务。这一与OpenAI的协议建立在普华永道之前宣布的投资10亿美元用于生成式AI技术的计划之上。 OpenAI一直在努力吸引微软之外的企业客户。据路透社4月报道,OpenAI首席执行官萨姆·奥特曼在旧金山、纽约和伦敦接待了数百位《财富》500强公司的高管,他和其他高管在会上推介了企业使用的AI服务,在某些情况下直接与微软竞争。
Codestral: Hello, World! 赋能开发者,普及编程,尽在Mistral AI
介绍Codestral (https://huggingface.co/mistralai/Codestral-22B-v0.1),这是首个专为代码生成任务设计的开源权重生成AI模型。Codestral通过共享的指令和完成API端点,帮助开发人员编写和交互代码。由于它精通代码和英语,开发人员可以利用其设计高级AI应用。 精通80多种编程语言的模型 Codestral在多达80多种编程语言的数据集上进行了训练,包括Python、Java、C、C++、JavaScript和Bash等流行语言,还包括Swift和Fortran等特定语言。广泛的语言基础确保了Codestral能在各种编码环境和项目中帮助开发人员。 Codestral节省了开发人员的时间和精力:它可以完成编码功能、编写测试,并通过填补机制完成任何部分代码。与Codestral的交互将帮助开发人员提升编码水平,减少错误和bug的风险。 设定代码生成性能的新标准 作为一个22B模型,Codestral在性能/延迟方面相对于之前的编码模型设立了新标准。 详细基准测试 图1: 由于具有更大的32k上下文窗口(相比竞争对手的4k、8k或16k),Codestral在RepoBench上表现优于所有其他模型,这是一个长范围的代码生成评估。 Codestral与现有代码特定模型进行了对比,这些模型具有更高的硬件要求。 Python:使用四个基准测试:HumanEval pass@1、MBPP sanitised pass@1评估Codestral的Python代码生成能力,CruxEval评估Python输出预测,以及RepoBench EM评估Codestral的长范围代码库级别代码完成。 SQL:使用Spider基准测试评估Codestral在SQL中的性能。 其他语言:此外,还在六种不同语言(除了Python之外)中进行HumanEval pass@1评估,包括C++、Bash、Java、PHP、Typescript和C#,并计算这些评估的平均值。 填补中间基准测试:使用HumanEval pass@1在Python、JavaScript和Java中评估Codestral的填补中间性能,并与DeepSeek Coder 33B进行比较,后者的填补中间能力立即可用。 开始使用Codestral 下载并测试Codestral。Codestral是一个22B开源权重模型,按照新的Mistral AI非生产许可证进行许可,可以用于研究和测试目的。Codestral可以在HuggingFace上下载。https://huggingface.co/mistralai/Codestral-22B-v0.1 通过专用端点使用Codestral。新发布的端点:codestral.mistral.ai,适用于在IDE中使用我们的指令或填补中间路线的用户。此端点的API密钥在个人层面管理,不受常规组织速率限制。在8周的测试期内免费使用此端点,并通过等待名单确保服务质量。适用于实施IDE插件或应用程序的开发人员。 在La Plateforme上使用Codestral。Codestral也可以通过常规API端点:api.mistral.ai,按查询收费。该端点和集成更适合研究、批量查询或第三方应用程序开发,直接向用户展示结果而无需他们提供API密钥。 开发人员可以在La Plateforme上创建账户,按照指南开始使用Codestral构建应用程序。与其他模型一样,Codestral从今天起可以通过自部署提供:联系销售。 在Le Chat中与Codestral对话。今天通过Le Chat提供一个指令版本的Codestral,这是一个免费对话界面。开发人员可以自然直观地与Codestral互动,利用模型的能力。Codestral被视为实现代码生成和理解的又一新台阶。 在常用的编码和构建环境中使用Codestral。Codestral已与社区合作伙伴一起引入流行的开发工具,以提高生产力和AI应用制作。 应用框架 从今天起,Codestral已集成到LlamaIndex和LangChain中,用户可以轻松构建代理应用程序。 VSCode/JetBrains集成:Continue.dev和Tabnine使开发人员能够在VSCode和JetBrains环境中使用Codestral,现在可以使用Codestral生成和交互代码。 以下是如何使用Continue.dev VSCode插件进行代码生成、交互对话和内联编辑的教程,以及如何使用Tabnine VSCode插件与Codestral对话的教程。 有关如何与Codestral集成的详细信息,请查看文档,了解设置说明和示例。 开发者社区反馈