|
清华开源TurboDiffusion,AI视频生成速度暴增200倍,消费级显卡也能秒出大片! 近日,清华大学TSAIL实验室联合生数科技正式开源视频生成加速框架TurboDiffusion,这一突破性技术将AI视频扩散模型的推理速度提升100至200倍,同时保持视觉质量几乎无损,标志着AI视频创作正式进入实时生成时代。 加速性能惊人:从分钟级到秒级生成 TurboDiffusion针对现有开源视频生成模型(如Wan2.1和Wan2.2系列的1.3B至14B参数模型)进行了深度优化。在单张RTX5090显卡上,端到端生成速度可达峰值200倍以上。例如: -5秒长视频生成时间从184秒缩短至1.9秒(约97倍加速); - 高分辨率720P视频在14B模型下,从数千秒降至数十秒。 即使在消费级RTX4090显卡上,也能流畅运行大型模型,无需依赖昂贵的A100或H100专业卡。这大大降低了AI视频生成的硬件门槛,让更多开发者与创作者能够轻松上手。 核心技术揭秘:多重优化组合拳 TurboDiffusion并非全新模型,而是高效推理框架,通过系统性创新实现近乎无损加速。主要技术包括: -8位量化:采用SageAttention实现低比特注意力计算,利用Tensor Core加速; - 稀疏线性注意力(SLA):仅保留关键注意力连接,进一步减少计算量; - 时间步蒸馏(rCM):将传统上百步采样压缩至3-4步,结合分数正则化连续时间一致性蒸馏,确保质量稳定。 这些技术正交结合,仅需6步训练流程即可复现,极大提升了可操作性。项目完全开源,包括代码、预训练模型权重以及完整训练脚本,已在GitHub上获得广泛关注。 行业影响深远:开启实时AI视频新纪元 TurboDiffusion的发布,被业内视为视频生成领域的“DeepSeek时刻”。它不仅解决了高分辨率、长时序视频生成的延迟与成本痛点,还吸引了Meta、OpenAI等国际团队的注意。该框架推动AI视频从实验阶段向规模化应用转型,未来有望支持交互式创作、企业级批量生产等场景。 AIbase认为,这一开源项目将加速AI视频工具的普及,彻底改变内容创作格局。感兴趣的开发者可立即访问GitHub仓库(https://github.com/thu-ml/TurboDiffusion)体验。 |

AI应用
推荐帖子
每人 1000 万 Tokens 免费领,国家超算互联网为 OpenClaw 用户发放两周福利
simonzhd 8 看过
小红书将全面封禁纯AI托管账号
simonzhd 14 看过
周鸿祎提醒“养龙虾”风险:AI幻觉会把C盘文件全删了
simonzhd 25 看过
Mac mini 不止养 AI 龙虾:苹果 M4 算力机密被破解,Claude 立新功
codefan 45 看过