阿里深夜开源万相2.1:8G显存就能跑的AI视频神器来了
凌晨三点的代码圈又炸了!阿里突然开源"万相2.1"AI视频模型,这波操作直接把专业级视频制作门槛砸到了地上。从此以后,你家那台配着4060显卡的游戏本,可能就要兼职当"导演"了。
万相2.1这次放出的四个模型堪称"大小王炸组合"。文生视频有1.3B和14B两个规格,图生视频则都是14B配置,分辨率覆盖480P到720P。最让人惊喜的是1.3B版本——8G显存就能流畅运行,意味着普通玩家的4060显卡也能驾驭。测试显示,用4090生成5秒480P视频仅需4分钟,这效率直接让传统视频渲染哭晕在厕所。
专业创作者可能会更痴迷14B版本的表现。在通义万相平台实测中,从"卧室俯拍女子苏醒"到"柠檬切开特写",连续动作指令执行精准得可怕。刀光划过柠檬时飞溅的汁水,阳光透过百叶窗的光影条纹,这些曾需要专业剧组才能实现的镜头语言,现在敲段文字就能搞定。
阿里这次把压箱底的宝贝直接扔上GitHub和Huggingface,开发者社区瞬间沸腾。不同于其他藏着掖着的商业模型,万相2.1开放了完整的模型权重和推理代码。魔搭社区已经出现大量部署教程,从环境配置到API封装一应俱全,小白用户跟着指南半小时就能跑通demo。
值得注意的是,线上通义万相提供的"专业版"和"极速版"其实都是14B模型,区别在于分辨率处理方式。而1.3B版本专为本地化部署优化,虽然体型娇小,但生成质量毫不含糊。有开发者测试发现,其长文本理解能力甚至优于某些闭源模型,连续动作指令的执行连贯性令人惊艳。
这次开源事件最深远的影响,在于彻底撕碎了AI视频创作的技术壁垒。以往需要数万元专业设备的领域,现在几千块的游戏本就能入场。某MCN机构负责人透露,他们已用万相2.1批量生成商品展示视频,单条成本从原来的2000元骤降至20元。
但机遇总伴随挑战。当"输入文字出成片"成为常态,视频行业的价值评判体系必将重构。就像PS普及没有消灭设计师,反而催生了更精细的视觉分层那样,万相2.1或许会倒逼从业者向创意策划和艺术指导转型。毕竟在AI眼里,描写"刀锋划过柠檬时折射的晨光"这样的诗意画面,比操作AE关键帧简单多了。
这场深夜开源的狂欢还在继续。GitHub项目页面上,全球开发者正疯狂提交着适配不同硬件的推理方案。有消息称,基于万相2.1的二次开发工具链已开始孵化,距离"手机拍文字直接出大片"的日子,可能就差一次应用商店更新了。
编辑:文墨