为了确保AI系统能够反映本地的价值观和法规,越来越多的国家开始制定主权AI战略,利用自己的基础设施、数据和专业知识开发AI技术。为支持这一趋势,NVIDIA推出了四款全新的NVIDIA NIM微服务。
这些微服务旨在简化生成式AI应用程序的创建和部署,支持区域定制的社区模型。通过增强对本地语言和文化细微差别的理解,它们承诺为用户提供更深度的参与体验,生成更准确和相关的响应。
这一举措正值亚太地区生成式AI软件市场预计将迎来爆炸式增长之际。据ABI Research预测,该地区的收入将从今年的50亿美元激增至2030年的480亿美元。
NVIDIA的新产品包括两个区域语言模型:Llama-3-Swallow-70B(基于日本数据训练)和Llama-3-Taiwan-70B(优化用于普通话)。这些模型旨在更好地理解本地法律、法规和文化复杂性。
此外,NVIDIA还推出了RakutenAI 7B模型系列,以支持日本语言市场。这些模型基于Mistral-7B,结合了英语和日语数据进行训练,并以两种不同的NIM微服务形式提供,分别用于聊天和指令功能。值得注意的是,Rakuten的模型在2024年1月至3月期间的LM评估基准测试中,在所有开放的日本大型语言模型中取得了最高平均分。
在区域语言上训练大型语言模型(LLMs)对于提高输出效果至关重要。通过准确反映文化和语言的细微差别,这些模型能够实现更精确和更具层次感的沟通。与Llama 3等基础模型相比,这些区域变体在理解日语和普通话、处理区域法律任务、回答问题以及翻译和总结文本方面表现更优。
全球推动主权AI基础设施的浪潮已在新加坡、阿联酋、韩国、瑞典、法国、意大利和印度等国家中得到充分体现,显著投资正不断涌入这一领域。
东京工业大学全球科学信息与计算中心的教授Rio Yokota表示:“LLMs不仅仅是提供普遍利益的机械工具,它们更像是与人类文化和创造力互动的智力工具。这种影响是双向的,模型不仅受到我们训练数据的影响,我们的文化和生成的数据也会被LLMs影响。因此,开发符合我们文化规范的主权AI模型至关重要。NVIDIA NIM微服务中提供的Llama-3-Swallow模型将使开发人员能够轻松地访问并在各行业的日本应用中部署该模型。”
NVIDIA的NIM微服务使企业、政府机构和大学能够在本地环境中托管本土LLMs。开发人员可以借此创建高级的智能助理、聊天机器人和AI助手。这些微服务在NVIDIA AI Enterprise平台上提供,并使用开源的NVIDIA TensorRT-LLM库进行推理优化,承诺提升性能和加快部署速度。
Llama 3 70B微服务(即新推出的Llama-3-Swallow-70B和Llama-3-Taiwan-70B的基础模型)展示了显著的性能提升,吞吐量高达5倍,转化为降低的运营成本和通过减少延迟提升的用户体验。