今天,Stability AI推出了基于稳定扩散图像模型的首个基础视频生成模型——“稳定视频扩散”。
现已在研究预览版中发布,这一最先进的生成式人工智能视频模型是我们朝着为各种类型的每个人创建模型的旅程中的一大步。
随着这次研究版的发布,已经在GitHub仓库上提供了稳定视频扩散的代码,而运行模型所需的权重可以在Hugging Face页面上找到。关于模型技术能力的更多细节可以在研究论文中找到。

视频模型可以轻松适应各种下游任务,包括从单一图像通过在多视图数据集上微调来进行多视图合成。Stability AI计划开发一系列基于这一基础并扩展的模型,类似于围绕稳定扩散构建的生态系统。
此外,今天,你可以在这里登记我们的等候名单,以访问即将推出的新网络体验,包括文本到视频的界面。这个工具展示了稳定视频扩散在广告、教育、娱乐等多个领域的实际应用。稳定视频扩散以两种图像到视频模型的形式发布,能够在每秒3至30帧之间自定义帧率,生成14至25帧。在基础形式发布时,通过外部评估,发现这些模型在用户偏好研究中超越了领先的封闭模型。
虽然Stability AI急切地用最新的进展更新模型,但他们强调,这个模型在现阶段不适用于现实世界或商业应用。体验用户对安全和质量的见解和反馈对于完善这个模型,为最终发布做好准备至关重要。