微软的研究部门为其较小的大型语言模型增加了一个重要的新功能,这是一个巨大的步骤,表明较便宜的AI技术可以具备与OpenAI的庞大的GPT-4相同的功能。
在一次独家采访中,微软研究人员分享说,该模型Phi 1.5现在是“多模态”的,这意味着它可以查看和解释图像。他们说,这项新技能对模型已经很小的尺寸几乎没有增加多少,为民主化AI技术提供了一条路线图,并有助于缓解运行像ChatGPT这样的软件所需的图形处理器的短缺。
GPT-4是ChatGPT的动力源,最近也变得多模态,但需要指数级更多的能量和处理能力。Phi 1.5是开源的,这意味着任何人都可以免费运行它。
“这是OpenAI对ChatGPT做的大更新之一,”微软研究的机器学习基础组的领导Sebastien Bubeck说。“当我们看到这个时,有一个问题:这是只有最巨大的模型才能做到的能力吗,还是我们可以用我们的小型Phi 1.5做类似的事情?令我们惊奇的是,是的,我们可以做到。”
GPT-4有大约1.7万亿的参数,或者用来做预测的软件旋钮和调整。更多的参数意味着模型生成的每个令牌(或字母集)都必须进行更多的计算。相比之下,Phi 1.5有13亿个参数。如果用距离来表示参数,GPT-4就像帝国大厦的大小,而Phi 1.5就像一个英尺长的三明治。
追求具有大型模型能力的小型AI模型不仅仅是一个学术练习。尽管OpenAI的GPT-4和其他庞大的基础模型令人印象深刻,但它们也很昂贵。Dataiku的平台策略副总裁Jed Dougherty说:“可能会有价格震惊。”
人们通常会要求ChatGPT草拟一封电子邮件,但公司经常希望它摄取大量的公司数据,以便对一个提示做出回应。这些请求可能是昂贵的。Dougherty说,单个GPT-4提示的最高价格是5美元,其他提供商的价格也差不多。他说:“当你将LLMs应用于大型数据集,或者允许许多人并行运行提示时…你会希望确保你考虑到了价格。”
较小的模型需要较少的计算来操作,所以它们需要较少强大的处理器和较少的时间来完成响应。同时,较小且稍微不那么有能力的模型可以处理许多公司和个人抛给它们的任务。
耗能较少的模型还有减少温室气体排放和可能的幻觉的额外好处。
“我们正在考虑如何负责任地建立这些系统,以便它们在现实世界中运作良好,”微软研究的人为中心的AI负责人Ece Kamar说。“我们在小模型上所做的所有工作都为我们提供了有趣的拼图片,以便能够建立那个生态系统。”
研究人员说,这些小型模型,尽管它们很有能力,但永远不会取代像GPT-4这样的大型基础模型,后者始终会领先。相反,这两种模型是互补的。对于某些应用,大型模型是必要的。对于非常具体的任务,小型模型可能更为经济。
微软研究的高级首席研究员Ahmed Awadallah说,未来可能是小型模型和大型模型同时用来处理任务。“你也可以想象小型模型在一个不同的制度中被部署。然后,也许,当它对行动没有足够的