日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

      發(fā)布時間:2024-09-11 14:30:38 編輯: 來源:
      導(dǎo)讀 相信很多大家對給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放還不知道吧,今天菲菲就帶你們一起去了解一下~.~! 讓AI...

      相信很多大家對給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      讓AI視頻中任意主體保持一致!就在剛剛,人人都可輕松做到了。

      而且只需一張圖片,就能實現(xiàn)。

      ——上面的每一個馬斯克視頻,都來自同一張照片。

      想玩的話,只需要用上清華系A(chǔ)I視頻玩家生數(shù)科技旗下Vidu的最新功能,主體參照(Subject Consistency)。

      該功能能夠?qū)崿F(xiàn)對任意主體的一致性生成,讓視頻生成更加穩(wěn)定,也更加可控。

      “現(xiàn)在生成AI視頻內(nèi)容,想要做到‘言出法隨’其實還很難,不確定性讓視頻內(nèi)容對運鏡、光效等的精細(xì)控制還是得不斷抽卡。”生數(shù)科技CEO唐家渝表示,“角色一致性只能讓人臉保持一致,而主體參照讓主體整體造型都能保持一致,給了更大的創(chuàng)作空間。”

      這是繼今年7月,生數(shù)Vidu面向全球用戶上線文生視頻與圖生視頻能力(單視頻最長生成8s)后的再次更新。

      這次功能上新依然非常友好:

      面向用戶免費開放,注冊即可體驗。

      僅需一張圖片實現(xiàn)主體可控

      先來看看Vidu是怎么定義這個新功能的。

      劃重點:任意主體。

      也就是說,無論是人還是動物,無論是真人還是動漫形象or虛構(gòu)主體,無論是家具還是商品,都能通過這個功能在視頻生成中實現(xiàn)一致性和可控性。

      目前,所有的視頻大模型中,僅有Vidu率先支持這種玩法。

      不必光說不練,我們來看看真實效果。

      人物主體

      首先來看看以人物為主體。

      上傳一張87版《紅樓夢》林妹妹的定妝照:

      以畫面中林妹妹為主體,利用主體參照功能,生成兩條視頻。

      突然,林妹妹上臺演講了:

      又一眨眼,妹妹已經(jīng)坐在星爸爸喝咖啡了:

      當(dāng)然啦,真人可以作為生成視頻的主體參照,虛擬角色/動漫人物同樣可以。

      比如輸入一張漫畫女孩:

      生成視頻效果是醬紫的:

      這里附上一些官方給的小tips:

      如需重點保持主體面容一致,需僅截取單一主體的清晰面容圖

      如需重點保持主體半身一致(面容+上半身服飾),僅需截取單一主體的清晰半身圖

      如需重點保持主體全身一致(全身特征),僅需截取單一主體的清晰全身圖

      動物主體

      誰能不愛可愛狗狗!

      把這張照片丟給Vidu,就能實現(xiàn)狗狗走草地上,一步一步靠近你。

      鏡頭后拉和主體運動幅度表現(xiàn)都還不錯。

      商品主體

      當(dāng)把商品作為需要參照的主體時,在生成的視頻中,商品外觀和細(xì)節(jié)能在不同于圖片的場景中保持一致。

      就像下面這樣:

      沙發(fā)所在的場景,說變就變。

      上面還能睡一個蓋了毯子的小女孩,遮擋住沙發(fā)原有部分。

      需要注意的是,當(dāng)前版本僅支持單一主體的可控。

      如果上傳的圖片有多個人物/物體,需要框選出單一主體進(jìn)行生成。

      Be Like:

      不再“兩步走”了

      無論是制作短視頻、動畫作品還是廣告片,“主體一致、場景一致、風(fēng)格一致”都是共同的追求。

      因此,AI視頻生成內(nèi)容想要有敘事效果,就需要不斷往三個一致方面盡力靠攏。

      尤其是就現(xiàn)實情況而言,實際的視頻創(chuàng)作,內(nèi)容往往圍繞特定的對象展開——這往往也是視頻生成內(nèi)容最容易變形、崩壞的一點,尤其在涉及復(fù)雜動作和交互的情況下。

      撓頭,腦闊痛。

      業(yè)界首先想到的辦法是先AI生圖、再圖生視頻。

      說人話,就是用Midjourney、SD什么的,生成分鏡鏡頭畫面,讓每張圖里的主體保持一致,然后再進(jìn)行圖生視頻,最后把每個視頻片段拼接剪輯。

      但一聽就發(fā)現(xiàn)了,這樣搞,無論是保持AI畫圖的一致性,還是后期拼拼剪剪,工作量都很大。

      生數(shù)Vidu“主體參照”跟這個思路的不一樣之處,就是不再兩步走了。

      而是通過“上傳主體圖+輸入場景描述詞”的方式,直接生成視頻素材。

      最后,我們來厘清以及區(qū)分三個概念:

      圖生視頻(Image to Video)

      角色一致性(Character to Video)

      主體參照(Subject Consistency)

      圖生視頻基本是現(xiàn)在AI視頻生成的基操了。

      它把輸入的圖片作為視頻首幀,然后基于首幀畫面的連續(xù)生成。

      Bug是無法直接輸出目標(biāo)場景,限制了視頻內(nèi)容的多樣性和場景的自由度。

      角色一致性,主要集中在人物形象上起效果。

      它能保證人物面部特征在動態(tài)視頻中保持一致,但一般來說“一致性”只顧臉,不顧整體形象。

      主體參照,面向任意主體。

      同時在面向人物主體時,既可選擇保持面部一致,也可選擇保持人物整體形象的高度一致。

      最后附上生數(shù)科技視頻試玩鏈接,感興趣的朋友可趁排隊人不多,趕緊沖一波!

      畢竟,免費的就是香,對吧(doge)。

      體驗直通車:

      www.vidu.studio

      以上就是關(guān)于【給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

      熱點推薦

      精選文章