2025 年 7 月 28 日,阿里巴巴通義實驗室正式開源了 Wan2.2,這是一款專為電影級視覺控制和高質量視頻創作設計的開源視頻生成模型。Wan2.2 通過混合專家(MoE)架構,實現了對電影鏡頭語言的深度理解和還原,支持多維度的視覺呈現,如光影、色彩和構圖。此外,它在數據訓練規模和專業美學訓練上實現了雙重升級,顯著提升了復雜場景的表現力和美學表現能力。
核心功能
- 文生視頻:具備電影級視覺控制,能夠輕松還原大幅度運動,并精準遵循語義。
- 圖生視頻:提升了抽卡成功率,保持內容一致性,使動態過程控制更自然,精準遵循指令。
- 文生圖:支持高效短文本處理,精準理解指令,增強美學表現,優化生成穩定性,并支持多樣化風格控制。
開源信息
Wan2.2 遵循 Apache 2.0 許可,完全開放代碼和權重。開源信息如下:
- GitHub 倉庫:https://github.com/Wan-Video/Wan2.2
- 模型地址:
- Hugging Face:https://huggingface.co/Wan-AI/
- ModelScope:https://modelscope.cn/organization/Wan-AI
- 技術報告:https://arxiv.org/abs/2503.20314
體驗方式
用戶可以通過以下鏈接在線體驗 Wan2.2:
- https://tongyi.aliyun.com/wanxiang/
適合人群
Wan2.2 適合專業創作者、AI 繪畫愛好者以及內容創作者,能夠滿足從電影制作到社交媒體內容創作的多樣化需求。
Wan2.2 的開源,為視頻生成領域帶來了新的可能性,讓高質量的視頻創作變得更加便捷和高效。
?版權聲明:如無特殊說明,本站所有內容均為AIHub.cn原創發布和所有。任何個人或組織,在未征得本站同意時,禁止復制、盜用、采集、發布本站內容到任何網站、書籍等各類媒體平臺。否則,我站將依法保留追究相關法律責任的權利。

