
charades.ai
一款受 Wordle 启发的游戏,你要猜测 DALL-E 为...
Wan2.2是全球首个开源的MoE(专家混合)视频生成模型,由阿里巴巴Tongyi Lab开发。它使用户能够从文本(文本到视频)或图像(图像到视频)创建专业的电影级视频,分辨率为720P,帧率为24fps。主要特点包括先进的动作理解、稳定的视频合成以及对光照、色彩和构图的精细控制。它是完全开源的,具备完整的模型权重,优化性能,并能够在消费级GPU上高效运行。
用户可以通过GitHub下载模型、试用在线演示或访问Hugging Face上的现成部署来开始使用Wan2.2。该模型允许用户输入文本或图像来生成高质量的电影级视频。
开源的MoE视频生成模型
文本到视频(T2V)和图像到视频(I2V)功能
720P分辨率,24fps输出
电影级控制(光照、色彩、构图)
先进的动作理解和稳定的视频合成
针对消费级GPU进行了优化
#1 从文本或图像创建专业的电影级视频
#2 为静态图像注入动态序列
#3 将创意转化为电影杰作,适用于电影制作人和内容创作者
#4 集成到制作流程中用于预可视化
#5 加速视频扩散模型的研究
#6 生成人工智能驱动的视频演示