
AIHub 1月2日消息,來自美國得克薩斯大學(xué)奧斯汀分校和Meta生成式AI團隊的研究人員在arXiv平臺上發(fā)表一篇論文,提出了一個一致的視頻生成視頻(V2V)合成框架FlowVid,通過利用空間條件和源視頻中的時間光流信息,實現(xiàn)了合成的高度一致性。給定輸入視頻和文本提示詞,F(xiàn)lowVid就能合成時間一致的視頻。
FlowVid支持多種視頻編輯功能,包括改變視頻的風(fēng)格、換掉視頻里的某個物體和局部編輯等。
根據(jù)論文,V2V模型FlowVid具有高靈活性、高效率、高質(zhì)量等優(yōu)勢,生成一段30 FPS、512 × 512分辨率的4秒視頻僅需1.5分鐘。
FlowVid相關(guān)資源地址:
- 項目地址:https://jeff-liangf.github.io/projects/flowvid/
- 論文:https://arxiv.org/abs/2312.17681
- GitHub:https://github.com/Jeff-LiangF/FlowVid
?版權(quán)聲明:如無特殊說明,本站所有內(nèi)容均為AIHub.cn原創(chuàng)發(fā)布和所有。任何個人或組織,在未征得本站同意時,禁止復(fù)制、盜用、采集、發(fā)布本站內(nèi)容到任何網(wǎng)站、書籍等各類媒體平臺。否則,我站將依法保留追究相關(guān)法律責(zé)任的權(quán)利。
