2025年2月25日半夜三更,阿里集团有大动作——
官方宣布其视觉生成基座模型万相2.1(Wan)开源!这在deepseek开源后,大模型跟风一般都在宣布开源了,好事情!
AI时代,进入状态。
万相2.1有两个参数规模,一个是140亿参数模型;另外一个是13亿参数模型。
140亿参数模型专业版,在权威评测集“VBench”中,以总分86.22%大幅超越Sora、Luma、Pika等国内外模型,居于榜首。
13亿参数模型仅需要8.2GB显存就能生成480P视频,可兼容几乎所有消费级GPU,约4分钟内在RTX 4090上生成5秒的480P视频。
万相2.1支持:文生视频、图生视频、视频编辑、文生图和视频生音频。
万相2.1是首个能够生成中英文文本的视频模型,无需外部插件就能生成文字。
万相新生 视界无限!
看来我的小七仙女可以把茅台镇的酱油与万相联合起来了,用万相来帮助小七仙女完成她宣传贵州茅台镇酱酒的使命。
