AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰還能攔住網(wǎng)友搞二創(chuàng)啊
相信很多大家對AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰還能攔住網(wǎng)友搞二創(chuàng)啊還不知道吧,今天菲菲就帶你們一起去了解一下~.~!
高端的大片特效,如今只需要最樸素的操作。
簡陋實(shí)拍“AI一下”秒變驚險動作片:
上方為AI生成
下方為原視頻素材
還可以一人分飾兩角,變裝易容從未如此簡單:
上方為AI生成
下方為原視頻素材
以上動圖來自X博主“Jon Finger”利用Runway Gen-3模型最新V2V(視頻生視頻)功能整活的AI特效視頻。
9月底,該視頻發(fā)布后,迅速在AI創(chuàng)作圈引起熱議。視頻中人物一致性、動作表現(xiàn)相當(dāng)驚艷,不少在X平臺上有一定影響力的創(chuàng)作者,也在評論區(qū)紛紛盛贊“Incredible”。
背后工作流并不復(fù)雜。博主先是“就地取材”,實(shí)拍了一些表演鏡頭,結(jié)合部分未經(jīng)渲染的3D建模鏡頭,投喂給AI后,經(jīng)過大量抽卡,便得到了最終的視頻效果。
AI視頻創(chuàng)作中,目前最常見的工作流是圖生視頻和文生視頻。相較之下,大多數(shù)頭部AI視頻工具如Luma、可靈、即夢等,都還沒有支持V2V功能。
但對于尋求進(jìn)階玩法的玩家來說,V2V在保持畫面連續(xù)性、人物運(yùn)動符合物理運(yùn)動規(guī)則方面有著天然的優(yōu)勢。
圖源:X博主“aulerius”
更不用說,今年在應(yīng)用層上卷生卷死的AI視頻生成產(chǎn)品,還把V2V的操作門檻打了下來、生成質(zhì)量提了上去。
據(jù)我們觀察,以抖音、TikTok為代表的短視頻平臺上,已經(jīng)涌進(jìn)大量V2V制作的熱門UGC內(nèi)容,其中還有不少博主借此快速漲粉起號。
目前市面上有哪些好用的V2V工具?創(chuàng)作者都在用V2V做些什么?相較圖生視頻和文生視頻,V2V的應(yīng)用前景如何?我們進(jìn)行了一番探究。
把一支視頻交給AI,可以有哪些玩法?
為了方便理解,先看看整體制作流程。簡單來說,利用V2V功能制作一支AI特效視頻主要分為兩個步驟:
第一步,準(zhǔn)備好原始素材。無論是實(shí)拍還是3D建模,只要畫面構(gòu)圖、人物動作符合創(chuàng)作需求即可。實(shí)拍可以是任何場景,而3D建模則可以是任何想象中的物體或環(huán)境。這些素材不需要完美,因?yàn)锳I可以進(jìn)行進(jìn)一步加工。
第二步,投喂素材給AI,進(jìn)行風(fēng)格化處理。如果說第一步相當(dāng)于繪畫中的線稿,那這一步就是上色和細(xì)節(jié)修飾的過程。不過,由于各家AI視頻工具的定位和面向的用戶群體有所差異,在這一步中,你用不同的工具,能創(chuàng)作出來的視頻是不一樣的。
所以,依據(jù)功能和玩法差異,我們把支持V2V的AI視頻生成工具分成了以下三類:
1.視頻轉(zhuǎn)繪工具:可以通過文字提示詞指揮AI做后期特效,包括改變視頻氛圍、色調(diào)和風(fēng)格,甚至更改人物形象。代表工具有Runway、Domo和Kaiber。
https://runwayml.com/
https://www.domoai.app/zh-Hant/create/video
https://kaiber.ai/
2.模版化的視頻轉(zhuǎn)繪工具:這類工具定位更接近“視頻風(fēng)格轉(zhuǎn)繪”,通常由官方提供預(yù)設(shè)模版,適合需要快速制作特定視頻風(fēng)格的玩家。代表工具有GoEnhance AI、Wink AI。
https://app.goenhance.ai/vid2vid
https://wink.meitu.com/
3.局部視頻編輯工具:支持輸入文字提示詞進(jìn)行局部編輯,適合需要精細(xì)調(diào)整視頻的玩家。代表工具有Pika1.0、以及尚未面向公眾開放的Sora和Meta最近發(fā)布的AI視頻模型Movie Gen。
Pika1.0演示Demo
這三類工具都基于V2V的使用方法,即你輸入一個視頻,可以通過文字提示詞或預(yù)設(shè)模版,來改變視頻的風(fēng)格或添加創(chuàng)意特效。
不同之處在于,模版化的視頻轉(zhuǎn)繪工具如GoEnhance AI,不支持文字提示詞輸入,所以你沒有辦法“用嘴”指揮AI修改畫面主體的細(xì)節(jié)。
例如,讓人物戴個帽子、或者更改人物樣貌,如果官方?jīng)]有提供特定的模版,都難以通過這類工具實(shí)現(xiàn)。
早前在TikTok、抖音上流行的真人轉(zhuǎn)繪漫畫風(fēng)格玩法,就是基于模版化的視頻轉(zhuǎn)繪工具。在一定程度上,模版優(yōu)化了產(chǎn)品使用體驗(yàn),方便UGC內(nèi)容制作,但同時也限制了創(chuàng)意的發(fā)揮。
而局部視頻編輯,雖然在交互上更自然、更可控——可以通過框選局部畫面進(jìn)行精細(xì)修改,也支持文字提示詞輸入。但目前市面上提供該功能的產(chǎn)品很少。
據(jù)我們不完全統(tǒng)計,面向公眾開放的產(chǎn)品中,僅有Pika(目前已更新至Pika1.5)的上一代模型Pika1.0支持局部視頻編輯,且需要訂閱會員才能使用。
相比之下,以Runway為代表的視頻轉(zhuǎn)繪工具可玩性就很高了。
以Runway為例,其V2V功能是由最新模型Gen-3支持的,不僅在生成視頻質(zhì)量上有顯著提升,還能一次性上傳并轉(zhuǎn)換時長達(dá)10秒的視頻。
對于第一次使用的新手,官方還提供了提示詞示例參考如3D卡通、黏土風(fēng)等流行風(fēng)格,點(diǎn)擊你想要的風(fēng)格,修改彩色字體部分(畫面主體描述)即可。
在這里,我們嘗試了多種提示詞。例如,讓跳舞的兩個人帶上墨鏡、或者讓他們的手變成熱狗腸,都成功生成了。
由于生成質(zhì)量的提升,近期各大社交媒體上也涌現(xiàn)出了不少基于Runway V2V的有趣玩法,其中一些玩法還獲得了不錯的流量。
一個在網(wǎng)上傳播頗廣的例子是,國民電子榨菜《甄嬛傳》的二創(chuàng)。“賽博影業(yè)”是抖音上的一位博主,自9月20日起其在抖音上陸續(xù)更新了一系列《甄嬛傳》的二創(chuàng)視頻,定位是“印度甄嬛”。
這些視頻大多圍繞劇中的名場面或經(jīng)典情節(jié)整活,其中有一條視頻獲得36.8萬轉(zhuǎn)發(fā)。
從效果呈現(xiàn)來看,這些二創(chuàng)視頻并沒有對原片進(jìn)行較大改動,僅僅是利用V2V將畫面風(fēng)格和人物裝扮轉(zhuǎn)換成了具有印度特色的元素。
背后制作流程類似X博主“@CharaspowerAI”在9月24日發(fā)布的對比視頻所示,一段視頻素材+一句提示詞,就輕松完成了人物和場景的“套皮”。
AI圈知名博主“歸藏”還發(fā)文稱這是“天才想法”,并推測其背后的工作流可能是“剪輯一些影視劇的經(jīng)典鏡頭,然后用Runway V2V轉(zhuǎn)成別的主題”,并評價稱這“非常容易起量,又避免了原創(chuàng)問題”。
不過還是可以看到,雖然V2V在畫面整體風(fēng)格上可以保持一致性(用網(wǎng)友的話來說就是“一股咖喱味”),但仍然無法保證在多切幾個鏡頭之后,“甄嬛”還是那個“甄嬛”。
可見,在強(qiáng)敘事、多人物的視頻中保持人物一致性,V2V也不是最終的解決之道。
從電影制作到短視頻生產(chǎn),
V2V的應(yīng)用前景如何?
在AI視頻生成領(lǐng)域,V2V并不是一個新玩法。
頭部AI視頻初創(chuàng)公司Runway最早嘗試的視頻生成模式就是V2V。早在2023年2月,Runway就推出了可以轉(zhuǎn)換視頻風(fēng)格的Gen-1模型,雖然這款初代模型在當(dāng)時為影視制作帶來了一些新思路,但與Gen-3相比,其生成效果多少還是有點(diǎn)拉胯。
從這兩代的生成效果對比,可以看到AI視頻生成技術(shù)的迭代之快。
Gen-1
Gen-3
所以, V2V其實(shí)不是一個新功能,但之前由于生成質(zhì)量、操作門檻等各種因素,它在實(shí)際應(yīng)用中的普及度,相比圖生視頻和文生視頻等工作流要小眾得多。
V2V主要使用人群在早前更偏向?qū)I(yè)創(chuàng)作者,作為一種實(shí)驗(yàn)性的方法,用來替代傳統(tǒng)影視制作中的動作捕捉、CG和布景等制作成本高昂、耗時較長的制作環(huán)節(jié)。
迪士尼導(dǎo)演Nem Perez工作流:實(shí)拍綠幕+Kaiber
一些專業(yè)的AI創(chuàng)作者會利用ComfyUI+AnimateDiff+LCM的工作流進(jìn)行視頻風(fēng)格轉(zhuǎn)繪。
Simon阿文,贊126
隨著底層模型能力的提升,AI視頻在產(chǎn)品應(yīng)用層上的內(nèi)卷,如今做一支AI轉(zhuǎn)繪視頻,無需復(fù)雜的前期部署,就能讓原本的視頻“改頭換面”。
這對大多數(shù)創(chuàng)作者來說是一個好消息,就算你沒有專業(yè)影視制作背景和資源,也能用AI做出以前做不到的視覺效果。
就視頻生成模式而言,用視頻作為“原料”來生成新視頻,比光用文字或圖片靠譜得多——給模型一個基本的視頻內(nèi)容框架,再讓AI賦予原視頻新的外表和風(fēng)格,遠(yuǎn)遠(yuǎn)比文字或圖片作為輸入“原料”更為可控。
在AI備受詬病的原創(chuàng)性問題上,V2V的工作流程也因?yàn)樘峁┝俗銐虻膭?chuàng)作自由度,在作品歸屬上更易被判定為是創(chuàng)作者本人的智力投入。
尤其對專注特效、劇情賽道的博主和自媒體創(chuàng)作者來說,結(jié)合實(shí)拍等方式的V2V,既可以在制作上節(jié)省成本,也能比以往更輕松地將腦子的創(chuàng)意轉(zhuǎn)化為現(xiàn)實(shí),用小成本撬動大流量的同時,還規(guī)避掉了使用AI創(chuàng)作的原創(chuàng)性問題。
自今年年初Sora橫空出世以來,國內(nèi)外大廠、AI初創(chuàng)公司在視頻生成產(chǎn)品上的內(nèi)卷有目共睹。畢竟視頻作為當(dāng)今互聯(lián)網(wǎng)內(nèi)容消費(fèi)的流量大頭,誰都不愿錯過在AI時代成為抖音的機(jī)會。
在“人人都能成為導(dǎo)演”的科技愿景兌現(xiàn)之前,不可否認(rèn)的是,AI正在以前所未有的速度降低內(nèi)容生產(chǎn)的門檻。
如今在V2V的幫助下,人人都可以是“五毛特效師”。
以上就是關(guān)于【AI魔改《甄嬛傳》,Runway帶飛AI視頻轉(zhuǎn)繪,這下誰還能攔住網(wǎng)友搞二創(chuàng)啊】的相關(guān)內(nèi)容,希望對大家有幫助!