🚀 阶跃星辰开源 Step-Video-TI2V:运动可控的5秒高清视频生成模型,昇腾平台首适配
继上个月开源全球最大文生视频模型 T2V 后,阶跃星辰在 3 月 20 日突然甩出一记「导演级」新模型 ——Step-Video-TI2V。其基于30B参数的Step-Video-T2V训练,支持生成102帧、5秒、540P分辨率视频,主打动态幅度可控与镜头运动精准控制两大核心能力,并适配华为昇腾计算平台。该模型采用 MIT 许可证完全开源,可以随意商用
这个更新直接让我看到了行业的未来走向:从「被动生成」到「主动操控」,普通人也能轻松玩转影视创作!

🔍 Step-Video-TI2V核心功能大揭秘
1. 动态控制:像调相机参数一样玩 AI
Step-Video-TI2V 最让我惊艳的是运动幅度调节功能。开发者输入一张静态插画,通过滑动参数条,画面里的动漫角色瞬间从静止变为腾空旋转两周半,落地时的动态模糊和镜头跟随都处理得相当自然。官方透露,这是通过动态平衡算法实现的,既能保持静态画面的稳定性,又能驾驭高难度动作,对动画师来说简直是福音。
2. 运镜自由:手机也能拍电影级镜头
第二个核心升级是专业运镜引擎,支持推拉摇移、升降等复杂镜头运动控制,适配影视级创作需求, 对动漫类内容生成效果尤为突出。Step-Video-TI2V测试时我尝试了 “环绕拍摄” 指令,生成的 5 秒视频里,镜头像无人机一样环绕角色 360 度,背景建筑的透视变化和光影衔接完全没有穿帮。据技术负责人介绍,团队在训练数据中增加了百万级的镜头运动标注,配合 3D 注意力机制,让运镜轨迹更接近真实拍摄逻辑。
3. 技术细节:更小参数更强性能
虽然参数规模比 T2V 的 300 亿小很多,但 Step-Video-TI2V 通过时空编码架构和3D 注意力机制,在 540P 分辨率下实现了更高效的推理。现场对比发现,同样生成 5 秒视频,TI2V 的显存占用比主流开源模型低 40%,这对个人开发者来说是个大惊喜。目前模型已适配华为昇腾平台,魔乐社区的开发者可以直接调用 API。
🌟 未来展望
团队透露,接下来将通过 LoRA 技术解锁粒子效果、动态光影等高级特效,结合语音交互能力,或实现「文字 + 语音」双指令创作。从 T2V 到 TI2V,阶跃星辰正用开源战略加速 AI 视频技术的普惠 —— 当每个创作者都能像导演一样掌控镜头语言,影视工业或许将迎来真正的 AI 革命。