OpenAI最近放出了它那位名叫GPT-4-Turbo的先进人工智能的大更新,不得了,这回它的应答和分析能力可是“大幅提升”了。一开始,这款集成了AI视觉技术,能分析并理解视频、图像和音频内容的模型,仅对开发者开放。但OpenAI表示,这些特色功能很快就会加入到ChatGPT中。
这还是头一遭,带有视觉技术的GPT-4-Turbo向第三方开发者开放。想想就有点小激动,这或许会催生出一些关于时尚、编程乃至游戏方面的新奇应用和服务。新模型还将知识更新截止日期延长到了2023年12月。这是AI训练完成的时间点。之前的知识截止日期是去年的4月。
GPT-4-Turbo的大部分焦点都放在了通过API调用访问OpenAI模型的开发者身上,以提升他们的工作效率,创造出更高效的应用程序。这是因为之前需要不同的模型来处理图像和文本。
将来,模型及其视觉分析能力将进一步扩展,并加入到像ChatGPT这样的消费者应用中,使其对图像和视频的理解更加高效。
这是Google开始推出的Gemini Pro 1.5已经开始实施的一项措施,尽管现在,像OpenAI一样,这家搜索巨头也将其限制在开发者使用的平台上,而不是消费者。GPT-4在最近的基准测试中的表现并不尽如人意,包括与Claude 3 Opus或Google的Gemini等新模型相比。一些较小的模型在特定任务上也表现更佳。
这次的更新应该会改变这一局面,或者至少为企业客户增加新的吸引人特性,直到GPT-5问世。
更新还保留了128,000个令牌的上下文窗口,大约相当于一本300页的书。虽然不是市场上最大的,但对大多数用例来说已经足够了。
到目前为止,OpenAI除了在ChatGPT中关注文本和图像的分析和理解外,还专注于音频的分析和理解。新更新将视频带给了更多人。当这一功能来到ChatGPT时,用户可能能够上传短视频片段,并让AI总结内容或挑选出关键时刻。