美国司法部(DOJ)向Nvidia公司及其他公司发出了传票,旨在寻找证据,调查该芯片制造商是否违反了反垄断法。这标志着对Nvidia——这一人工智能处理器领域的主导者——的调查进一步升级。 此前,司法部曾向多家公司发送问卷调查,而此次的传票则是具有法律约束力的请求,要求接收方提供相关信息。这表明政府距离提出正式诉讼更近了一步。 司法部的反垄断官员担心,Nvidia可能在通过限制客户更换供应商,并对不完全依赖其AI芯片的买家施加惩罚。Nvidia对此回应称,公司的市场主导地位源于产品质量,且其芯片的性能表现优于竞争对手。 该调查还涉及Nvidia在4月份宣布收购RunAI的交易,RunAI是一家提供AI计算管理软件的公司。监管机构担心此项交易可能会使客户更难摆脱对Nvidia芯片的依赖。此外,司法部还在调查Nvidia是否为独家使用其技术或购买其完整系统的客户提供了优惠供应和价格。 Nvidia自1993年成立以来,最初因销售图形卡而闻名于电脑游戏玩家。但随着其芯片制造方法在构建AI模型方面表现突出,Nvidia迅速扩大了其产品线,包括软件、服务器、网络和服务,旨在加速AI的部署。这也使其成为微软和Meta等巨头的关键供应商。 随着AI技术对经济和国家安全的重要性日益增加,Nvidia的市场行为正受到全球政府的广泛关注。
Author: aitrendtrackers@rengongzhineng.io
Canva用户因AI功能扩展导致的300%
Canva的用户们要做好准备了。这家广受欢迎的设计软件公司将大幅提高其Canva Teams订阅价格,涨幅高达300%以上,原因是其引入了新的生成式AI功能,这些功能据称足以证明如此大幅度的价格上涨是合理的。 现有用户对此次突然的涨价感到措手不及,特别是个人账户将在明年转向更高价位的订阅模式。在美国,一些用户报告称,最多五人的年度订阅费用从原来的120美元飙升至500美元。虽然公司提供了为期12个月的40%折扣,使价格暂时降至300美元,但之后将恢复到500美元的标准价格。 而在澳大利亚,情况更加戏剧化——原来五人的每月费用为39.99澳元,如今每位用户每月要支付40.50澳元。这意味着一个五人团队的年度费用从480澳元跃升至惊人的2,430澳元。 此前,一些团队享有锁定价格,但现在这些优惠不再适用于新用户。实际上,早在今年四月,Canva悄然更改了价格结构,设定了最低三位用户,每人每月10美元的标准。如今,老用户也被逐步推向这一更昂贵的定价模式,理由是要与“扩展后的产品体验”保持一致。 Canva的通讯主管Louisa Green解释了此次大幅涨价,称这是因为公司近年来的快速发展。新功能包括Visual Suite和Magic Studio,旨在将Canva从一个简单的设计工具变成一个全面的工作平台。 此次涨价主要是由于Canva推出了一系列AI功能,比如Magic Media的文本转图像生成器和Magic Expand背景扩展工具。这些更新是Canva更广泛的产品重塑计划的一部分,目的是将其从一个针对设计师的工具发展为更全面的商业工具。尽管公司此前曾暗示过价格调整,但此次突然的大幅上涨主要是通过客户邮件告知的。值得注意的是,其他订阅级别如Pro和Enterprise尚未受到影响。 这一举动标志着Canva的重大转型,毕竟它曾凭借比Adobe更加实惠的价格吸引了大量用户。毫不意外,许多用户已经在社交媒体上表达了不满,威胁要取消订阅并重返Adobe的怀抱。 此次涨价也紧随Canva收购Affinity创意软件套件之后,并且距离其计划于2026年在美国上市的目标越来越近。目前尚不清楚这些价格调整是否会扩展到中东地区,那里的用户可能正在密切关注,看看他们的订阅是否会受到影响,还是会保持不变。
OpenAI正在努力解决其面临的版权问题
OpenAI的GPT模型在技术上取得了巨大进步,这可能源于对整个网络文本的“吸收”。包括一些大型出版商如Axel Springer、Condé Nast和美联社的整个档案库,而这一切都未经他们的许可。令人惊讶的是,尽管如此,OpenAI还是与许多这些集团达成了合作协议。 乍一看,这种情况有点让人摸不着头脑。为什么OpenAI要为已经拥有的内容付费?而那些愤怒得想打官司的出版商们又为何同意与其合作? 如果仔细观察这些协议,或许能看到未来网络格局的一种可能。谷歌的流量导向作用在逐渐减弱,这对整个网络的生存构成了威胁。而这种搜索领域的权力真空,可能正是OpenAI试图填补的。 交易的内幕 根据Axel Springer协议的新闻稿,这些交易允许OpenAI访问出版物的内容,以“通过在ChatGPT中加入最新的权威内容来丰富用户体验”。这里的“最新内容”至关重要。通过爬取网络,ChatGPT的信息获取会受到时间限制,无法实时更新。而越接近实时访问,OpenAI的产品就越接近实时结果。 不过,这些交易所涉及的金额相对较小,据报道,OpenAI向出版商提供的年付款仅为100万到500万美元。结合公开的数据计算,每家出版物的交易上限约为1000万美元。相较于OpenAI对这些出版物数据的全面抓取,这笔钱确实不多。但为何OpenAI仍愿意支付这些费用呢? 一个可能的原因是,这些费用可以被视为防止出版商起诉OpenAI的一种手段。已经有一家大型出版物提起了诉讼,未来的法律纠纷可能会使OpenAI付出更大的代价。 《纽约时报》的诉讼和法律风险 《纽约时报》已对OpenAI提起了诉讼,指控其在未经许可的情况下使用了时报的作品来训练其语言模型,这构成了版权侵权。而更严重的是,OpenAI通过这种方式创造的产品现在与《纽约时报》直接竞争,意图“窃取”其读者群。 如果《纽约时报》赢得诉讼,OpenAI可能面临高达75亿美元的法定赔偿金。这就是为什么《纽约时报》没有接受OpenAI提出的微不足道的合作金额。 因此,OpenAI与出版商达成的协议,从某种意义上说,实际上是在确保这些出版商不会像《纽约时报》那样起诉OpenAI。同时,这些交易也帮助OpenAI维持其“合理使用”辩护,因为它必须在包括与《纽约时报》诉讼在内的多个案件中使用这一辩护。 谷歌与搜索市场的争夺 这些交易不仅仅是为了避免诉讼和管理声誉。更重要的是,这些交易还使OpenAI获得了实时信息。OpenAI最近宣布了自己的搜索引擎SearchGPT,尽管目前还处于原型阶段,但这个AI原生搜索引擎的目标是通过过滤掉AI生成的SEO内容,为用户提供更高质量的信息。 谷歌搜索在过去几年中逐渐变得不那么实用了,而Google的AI聊天机器人也未能显著改善这种情况。如果OpenAI能够推出一个能够颠覆现有搜索市场的产品,现在正是时机。 这些交易还为出版商提供了更多谈判筹码,可能最终迫使谷歌与出版商坐下来谈判。谷歌已经与Reddit达成了协议,支付6000万美元获取Reddit数据,这为出版商们争取更多利益打开了大门。 然而,如果法院最终裁定《纽约时报》胜诉,这可能会使所有大型语言模型的创建者都面临巨额赔偿,只有那些财力雄厚的公司才能在这一领域继续竞争。这将使谷歌、微软、亚马逊和Meta等巨头在生态系统中的地位更加稳固。 总的来说,尽管OpenAI目前面临法律风险,但它仍有时间在市场上发展壮大,并可能通过这些与出版商的交易,最终在搜索市场上获得一席之地。而对于出版商来说,趁着还能从中获利,现在达成交易可能是明智之举。
Nvidia扩展AI帝国:从芯片到数据中心设计的全面布局
Nvidia正处于人工智能(AI)芯片市场的中心地位,但首席执行官黄仁勋的目标远不止于此。他正通过提供软件、数据中心设计服务和网络技术等多方面的产品,扩大公司业务,并希望在竞争中进一步拉大优势,成为AI领域的全面供应商。 黄仁勋的战略旨在将Nvidia打造成不仅仅是一个硬件组件供应商,而是一个涵盖所有关键要素的一站式服务提供商,尤其是在像OpenAI的ChatGPT等工具开发和部署的AI数据中心,或他所谓的“AI工厂”中。 在本周三发布的财报中,Nvidia的表现超出了华尔街的预期。黄仁勋在随后的电话会议中强调了公司在数据中心设计方面日益增强的能力。这一财报发布前不久,竞争对手AMD宣布将以近50亿美元收购数据中心设计和制造公司ZT Systems,以图在数据中心领域缩小与Nvidia的差距。 黄仁勋指出,Nvidia有独特的能力来整合和设计AI工厂,因为公司掌握了所有关键部件。他表示:“如果没有所有这些组件,就无法每年设计出全新的AI工厂。” 这一战略旨在延续Nvidia的商业成功,使其成为全球最有价值的公司之一,同时通过在AI数据中心中占据更多的价值链环节,增加收入并使其产品对客户更加不可或缺。 Nvidia的成功在一定程度上依赖于其已经使用了17年的专有软件CUDA,这款软件使程序员能够充分利用其芯片。最近,黄仁勋还将资源投入到一种名为InfiniBand的超高速网络协议中,这是在五年前以近70亿美元收购该技术的主要设备制造商Mellanox Technologies后得来的。分析师估计,InfiniBand被用于大多数AI训练部署中。 此外,Nvidia还在建立一个业务,为传统数据中心广泛使用的AI优化以太网提供网络技术。首席财务官Colette Kress表示,以太网业务预计将在一年内带来数十亿美元的收入。 更广泛地说,Nvidia销售的产品包括为各种其他数据中心设备提供的中央处理器和网络芯片,这些设备经过精细调整以无缝协同工作。公司还为特定行业(如医疗保健和机器人技术)提供量身定制的软件和硬件解决方案。 数据中心运营商DataBank的首席执行官Raul Martynek表示:“他(黄仁勋)使公司垂直化,他们对AI有一个愿景,即需要哪些软件和硬件组件才能让用户真正部署它。” 竞争加剧 Nvidia的竞争对手正在做出回应。AMD收购ZT Systems的交易本质上是为了获取如何建造数据中心的技能。AMD计划出售ZT的制造业务,并保留其设计专家,以便对Nvidia发起更强有力的挑战。 包括Intel、Cerebras Systems和SambaNova Systems等AI芯片初创公司在内的其他芯片供应商,也在提供服务和系统,以帮助客户构建和运营AI工具。 分析师和业内高管表示,这种趋势在一定程度上反映了客户对即插即用AI计算基础设施的偏好,这有助于他们在AI繁荣中迅速行动。 “企业通常会选择一站式解决方案,”投资公司Raymond James的分析师Srini Pajjuri表示。“他们没有资源、技术或专业知识来自己拼凑设备。” 战略中的风险 然而,Pajjuri指出,这一战略也存在一些风险。随着AI计算领域竞争的加剧以及AI工厂建设热潮的减退,客户可能会探索替代方案,而不仅仅依赖于Nvidia围绕其AI芯片构建的专有技术。 他说:“目前,市场时间是最重要的,所以他们正在采用Nvidia的解决方案,但随着技术的成熟,Nvidia可能无法再占据更多市场份额。” Nvidia还可能面临监管障碍,这是许多在市场中占据主导地位并扩大其影响力的公司曾遇到的挑战。公司在欧洲的市场行为正受到审查,其在法国的办公室在过去一年里遭到突击检查,尽管目前尚未对其提出指控。 黄仁勋在周三表示,Nvidia的角色是一个协调者和设计者,能够为如何建立复杂的AI基础设施提供指导,但强调Nvidia并不打算包揽所有工作。 Nvidia将于今年晚些时候或明年年初推出下一代Blackwell AI芯片,并首次提供一个完整的计算设备机架设计,但Nvidia本身不会制造这些设备。 黄仁勋表示:“我们知道如何设计AI基础设施,以客户希望的方式提供,并让生态系统进行整合。”
Kotaemon:融合检索与生成的AI系统,提升信息提取效率
https://github.com/Cinnamon/kotaemon 为了解决这一问题,研究人员提出了Kotaemon,这是一种基于检索增强生成(RAG)方法的开源系统。与传统搜索引擎不同,Kotaemon不仅基于相关性检索文档,还利用先进的语言模型(LLMs)生成符合语境的准确回答。Kotaemon的核心创新在于将检索系统的优势与生成式AI相结合,从而为用户提供更详细且语境适配的答案。 Kotaemon的架构由两大部分组成:检索和生成。在检索阶段,系统会对文档进行索引,并创建嵌入——即捕捉文本语义意义的数值表示。当用户提交查询时,系统会生成相应的嵌入,并使用相似度搜索算法检索出最相关的文档。在生成阶段,这些检索到的文档与原始查询一起形成上下文,随后由语言模型(如GPT-3)生成连贯且信息丰富的回答。Kotaemon的高度可定制性允许用户选择不同的LLMs、索引算法和相似度度量,增强了工具的灵活性和有效性。尽管目前尚未对模型进行定量评估,但Kotaemon能够提供准确且信息丰富的回答,表明其在性能上优于传统搜索引擎。此外,Kotaemon提高了用户满意度,显著减少了手动搜索所需的时间和精力。 总而言之,Kotaemon通过结合检索和生成技术,成功应对了与大规模文本交互的挑战。这一方法使系统能够提供比传统搜索引擎更相关且信息丰富的响应,显著提升了用户体验,节省了时间,并提供了符合语境的准确答案。虽然系统的表现依赖于索引文档的质量和底层LLMs的能力,Kotaemon无疑代表了信息提取领域的一项重要进步。
Google Deepmind 推出GenRM:提升生成式AI推理能力的新方法
生成式AI是人工智能中的一个重要领域,专注于开发能够生成类似人类文本并解决复杂推理任务的系统。这些模型在自然语言处理等多个应用中至关重要,其主要功能是预测文本序列中的后续单词,生成连贯的文本,甚至解决逻辑和数学问题。然而,尽管这些模型在许多方面表现出色,但在准确性和可靠性上仍存在挑战,尤其是在推理任务中,一个小错误就可能导致整个解决方案的失效。 生成式AI模型的一个显著问题是,它们常常会生成看似自信但实际上错误的输出。这一挑战在对精确性要求极高的领域(如教育、金融和医疗)中尤为关键。模型无法始终生成正确答案,这削弱了它们在高风险应用中的潜力。因此,提升这些AI系统的准确性和可靠性成为研究人员的首要任务,以增强AI生成解决方案的可信度。 为了解决这些问题,目前的方法包括使用判别式奖励模型(RMs),这些模型通过评分来判断潜在答案的正确性。然而,这些方法并未充分利用大型语言模型(LLMs)的生成能力。另一种常见方法是LLM-as-a-Judge,它利用预训练语言模型来评估解决方案的正确性。虽然这种方法发挥了LLM的生成能力,但在需要细致判断的推理任务中,往往不如专门的验证器。 谷歌DeepMind、多伦多大学、MILA和加州大学洛杉矶分校的研究人员引入了一种名为生成式奖励建模(GenRM)的新方法。该方法通过将验证过程重新定义为一个下一词预测任务,充分利用了LLMs的核心能力。与传统的判别式RMs不同,GenRM将LLMs的文本生成优势融入验证过程中,使模型能够同时生成和评估潜在解决方案。这种方法还支持Chain-of-Thought(CoT)推理,模型在得出最终结论前生成中间推理步骤,从而不仅评估了解决方案的正确性,还通过更详细和结构化的评估提升了整体推理过程。 GenRM方法采用了一个统一的训练方法,结合了解决方案生成和验证的过程。通过下一词预测训练模型来预测解决方案的正确性,这种技术利用了LLMs固有的生成能力。在实际操作中,模型会生成中间推理步骤(CoT推理),这些步骤随后用于验证最终的解决方案。这一过程与现有的AI训练技术无缝集成,允许同时改进生成和验证能力。此外,GenRM模型还受益于推理时的额外计算,如通过多数投票聚合多个推理路径,以得出最准确的解决方案。 特别是在与CoT推理结合时,GenRM模型的表现显著超越了传统的验证方法。在一系列严格测试中,包括与小学数学和算法问题解决相关的任务,GenRM模型在准确性上显示出了显著提升。研究人员报告称,与判别式RMs和LLM-as-a-Judge方法相比,正确解决问题的比例增加了16%到64%。例如,在验证Gemini 1.0 Pro模型的输出时,GenRM方法将问题解决成功率从73%提升到92.8%。这一显著的性能提升表明,该模型能够减轻标准验证器在复杂推理场景中经常忽略的错误。此外,研究人员观察到,随着数据集规模和模型容量的增加,GenRM模型能够有效扩展,进一步增强其在各种推理任务中的适用性。 总之,谷歌DeepMind研究人员引入的GenRM方法标志着生成式AI领域在解决推理任务相关验证挑战方面的重大进展。GenRM模型通过将解决方案生成和验证统一为单一过程,提供了更可靠和准确的复杂问题解决方案。这种方法不仅提高了AI生成解决方案的准确性,还增强了整体推理过程,使其成为未来多领域AI应用中的重要工具。随着生成式AI的不断发展,GenRM方法为进一步的研究和发展奠定了坚实的基础,尤其是在精确性和可靠性至关重要的领域。
推动主权AI:NVIDIA助力全球AI基础设施本地化发展
为了确保AI系统能够反映本地的价值观和法规,越来越多的国家开始制定主权AI战略,利用自己的基础设施、数据和专业知识开发AI技术。为支持这一趋势,NVIDIA推出了四款全新的NVIDIA NIM微服务。 这些微服务旨在简化生成式AI应用程序的创建和部署,支持区域定制的社区模型。通过增强对本地语言和文化细微差别的理解,它们承诺为用户提供更深度的参与体验,生成更准确和相关的响应。 这一举措正值亚太地区生成式AI软件市场预计将迎来爆炸式增长之际。据ABI Research预测,该地区的收入将从今年的50亿美元激增至2030年的480亿美元。 NVIDIA的新产品包括两个区域语言模型:Llama-3-Swallow-70B(基于日本数据训练)和Llama-3-Taiwan-70B(优化用于普通话)。这些模型旨在更好地理解本地法律、法规和文化复杂性。 此外,NVIDIA还推出了RakutenAI 7B模型系列,以支持日本语言市场。这些模型基于Mistral-7B,结合了英语和日语数据进行训练,并以两种不同的NIM微服务形式提供,分别用于聊天和指令功能。值得注意的是,Rakuten的模型在2024年1月至3月期间的LM评估基准测试中,在所有开放的日本大型语言模型中取得了最高平均分。 在区域语言上训练大型语言模型(LLMs)对于提高输出效果至关重要。通过准确反映文化和语言的细微差别,这些模型能够实现更精确和更具层次感的沟通。与Llama 3等基础模型相比,这些区域变体在理解日语和普通话、处理区域法律任务、回答问题以及翻译和总结文本方面表现更优。 全球推动主权AI基础设施的浪潮已在新加坡、阿联酋、韩国、瑞典、法国、意大利和印度等国家中得到充分体现,显著投资正不断涌入这一领域。 东京工业大学全球科学信息与计算中心的教授Rio Yokota表示:“LLMs不仅仅是提供普遍利益的机械工具,它们更像是与人类文化和创造力互动的智力工具。这种影响是双向的,模型不仅受到我们训练数据的影响,我们的文化和生成的数据也会被LLMs影响。因此,开发符合我们文化规范的主权AI模型至关重要。NVIDIA NIM微服务中提供的Llama-3-Swallow模型将使开发人员能够轻松地访问并在各行业的日本应用中部署该模型。” NVIDIA的NIM微服务使企业、政府机构和大学能够在本地环境中托管本土LLMs。开发人员可以借此创建高级的智能助理、聊天机器人和AI助手。这些微服务在NVIDIA AI Enterprise平台上提供,并使用开源的NVIDIA TensorRT-LLM库进行推理优化,承诺提升性能和加快部署速度。 Llama 3 70B微服务(即新推出的Llama-3-Swallow-70B和Llama-3-Taiwan-70B的基础模型)展示了显著的性能提升,吞吐量高达5倍,转化为降低的运营成本和通过减少延迟提升的用户体验。
AI聆听健康:Google如何通过声音信号预测疾病早期症状
Google的AI部门正在探索一种名为“生物声学”的新领域,这个领域结合了生物学和声音,帮助研究人员了解病原体如何影响人体发出的声音。据报道,人的声音中蕴含着关于健康状况的重要信息。 根据彭博社的报道,这家搜索引擎巨头开发了一种利用声音信号来“预测疾病早期症状”的AI模型。在那些难以获得优质医疗服务的地区,这项技术可以作为替代方案,用户只需使用智能手机的麦克风即可进行健康检测。 Google的这款基于生物声学的AI模型名为HeAR(Health Acoustic Representations)。HeAR模型训练了3亿个2秒长的音频样本,包括咳嗽、鼻塞、打喷嚏和呼吸模式。这些音频剪辑来自YouTube等平台的非版权、公开可用内容。例如,其中一个样本是记录赞比亚一家医院患者声音的视频,病人在那里接受肺结核筛查。HeAR模型已经通过1亿个咳嗽声样本进行了训练,以帮助检测肺结核。 据彭博社报道,生物声学能够提供“几乎难以察觉的线索”,揭示出细微的疾病迹象,这些迹象可以帮助医务人员诊断患者。此外,AI模型还能检测患者咳嗽模式的微小差异,从而发现疾病是否有好转或恶化的早期迹象。 Google正在与印度的AI医疗初创公司Salcit Technologies合作。Salcit拥有一款名为Swaasa的AI模型(在梵语中意为“呼吸”),该公司正利用Swaasa来提高HeAR在肺结核和肺部健康筛查方面的准确性。 Swaasa提供了一款移动应用程序,用户可以提交10秒钟的咳嗽样本。根据Salcit的联合创始人Manmohan Jain的说法,该应用程序能够以94%的准确率判断一个人是否患有疾病。 这种基于声音的测试费用为2.40美元,比在印度诊所进行的约35美元的肺活量测定测试便宜得多。 然而,HeAR也面临一些挑战。例如,Google和Salcit仍在努力解决用户提交的音频样本背景噪音过大的问题。 尽管Google的生物声学AI模型距离“市场就绪”还有一段距离,但不得不承认,将AI与声音结合应用于医疗领域的概念无疑是创新且充满前景的。
当敏捷开发遇上AI
多年来,敏捷软件开发一直被视为一种高效的方式来交付业务所需的软件。这种实践在许多组织中已经运作了二十多年,并且也是Scrum、DevOps等协作实践的基础。然而,敏捷方法在人工智能(AI)设计和实施中的效果可能并不理想。 根据全球政策智库兰德公司(RAND Corporation)最近的一份报告,敏捷开发可能成为AI项目成功的障碍。这项研究基于对65位拥有至少五年AI和机器学习模型开发经验的数据科学家和工程师的采访,最初是为美国国防部进行的,并于2024年4月完成。报告的共同作者,兰德公司的高级技术政策分析师James Ryseff指出,AI项目常常陷入困境,甚至无法启动。 有趣的是,许多AI专家认为正式的敏捷软件开发实践会阻碍AI项目的成功。研究发现,受访者中有不少人认为,敏捷开发过程中一些严格的解释并不适用于AI项目。尽管敏捷软件运动的初衷并不是要发展出僵化的流程,但许多组织却要求其工程团队普遍遵循相同的敏捷流程。结果,某些工作任务要么在下一次冲刺中重新开启,要么被缩减得极其小而变得毫无意义,难以适应一到两周的冲刺周期。尤其是AI项目需要一个不确定时间的数据探索和实验阶段,这与敏捷开发的节奏并不匹配。 兰德的研究还提出了其他可能限制AI项目成功的因素。尽管IT项目的失败已被广泛记录,但AI项目的失败具有不同的特征,如昂贵的劳动力和资本需求、高算法复杂性等,使其不同于传统的信息系统。此外,AI项目的高知名度可能增加利益相关者想要了解项目风险驱动因素的愿望。 研究团队指出,AI项目失败的主要原因包括:行业利益相关者对AI要解决的问题理解不清或沟通不畅;组织缺乏训练有效AI模型所需的数据;过度关注最新技术而忽视了解决实际问题;基础设施不足以管理数据和部署AI模型;以及技术应用于AI难以解决的复杂问题。AI并不是万能的,有些困难的问题,即使是最先进的AI模型也无法自动解决。 尽管正式的敏捷实践可能过于繁琐,但IT和数据专业人员仍需要与业务用户保持开放的沟通。受访者建议,技术团队应经常与业务合作伙伴沟通项目的状态,而不是盲目采用现有的软件工程流程。开放的沟通不仅有助于建立信任,还能增加项目成功的可能性。 兰德团队还建议选择“持久性问题”,并在启动AI项目之前,准备好至少一年时间来解决特定问题。如果一个AI项目不值得这种长期承诺,那么可能根本不值得开始。此外,虽然专注于业务问题而非技术解决方案至关重要,但组织也必须在支持AI工作的基础设施上进行投资。
亚马逊求助Claude:借助Anthropic的AI重塑Alexa
亚马逊计划在10月推出全新升级版Alexa,以迎接美国假日购物季的到来。据知情人士透露,此次新版本的Alexa将主要由Anthropic公司开发的Claude人工智能模型驱动,而不是使用亚马逊自家的AI技术。 根据之前的报道,亚马逊计划对这款名为“Remarkable”的新版本Alexa收取每月5到10美元的费用,因为它将使用强大的生成式AI来回答复杂问题,而经典版的语音助手则仍将免费提供。不过,早期使用自家软件的Alexa版本在回应用户指令时表现不佳,有时需要六到七秒才能回应。因此,亚马逊选择了表现更优的Claude模型来提升用户体验。 亚马逊发言人在回应采访时表示,公司使用多种技术来支持Alexa,包括自家开发的模型以及合作伙伴的技术,如Anthropic的Claude。虽然亚马逊通常更倾向于使用自家开发的技术,以确保对用户体验和数据的完全控制,但这次与Anthropic的合作显示出其在AI领域追赶竞争对手的决心。 新款Alexa计划在10月正式推出,预计将在9月的亚马逊年度设备和服务发布会上进行预览。这也是新任设备主管Panos Panay的首次重大公开亮相。虽然亚马逊尚未公布具体的发布会日期,但业内普遍期待此次发布会能够展示更强大的AI功能,包括支持更复杂的对话、个性化推荐以及更智能的家居自动化功能。 然而,亚马逊的内部团队对消费者是否愿意为目前免费的服务支付每年60至120美元的费用持怀疑态度,特别是在许多用户已经为Prime会员支付了每年139美元的情况下。尽管如此,亚马逊仍然希望通过这次升级,使Alexa不仅能更好地服务于用户的日常需求,还能成为智能家居的核心枢纽,从而推动销售增长并在激烈的AI竞赛中占据一席之地。