Stable Video Diffusion :GPT4 后的下一个曝款AI视频项目

现在,你可以基于原有的静止图像来生成一段几秒钟的视频。
基于 Stability AI 原有的 Stable Diffusion 文生图模型,Stable Video Diffusion 成为了开源或已商业行列中为数不多的视频生成模型之一。

 

 

Stable Video Diffusion 可以轻松适应各种下游任务,包括通过对多视图数据集进行微调从单个图像进行多视图合成。Stability AI 表示,正在计划建立和扩展这个基础的各种模型,类似于围绕 stable diffusion 建立的生态系统。

 

Stable Video Diffusion 以两种图像到视频模型的形式发布,能够以每秒 3 到 30 帧之间的可定制帧速率生成 14 和 25 帧的视频。
在外部评估中,Stability AI 证实这些模型超越了用户偏好研究中领先的闭源模型:
Stability AI 强调,Stable Video Diffusion 现阶段不适用于现实世界或直接的商业应用,后续将根据用户对安全和质量的见解和反馈完善该模型。
Stable Video Diffusion开源并且可以免费使用,目前使用需要到官网填写信息加入等候名单,官方通过后即可使用
加入等候名单:https://stability.ai/contact
开源地址:https://github.com/Stability-AI/generative-models
版权声明:
作者:maggie
标题:Stable Video Diffusion :GPT4 后的下一个曝款AI视频项目
链接:https://www.gtyyj.com/176.html/
文章版权归作者所有,转载请标注来源。
THE END
分享
二维码
打赏
海报
Stable Video Diffusion :GPT4 后的下一个曝款AI视频项目
现在,你可以基于原有的静止图像来生成一段几秒钟的视频。 基于 Stability AI 原有的 Stable Diffusion 文生图模型,Stable Video Diffusion 成为了开源或已……
<<上一篇
下一篇>>