日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      AI畫連環(huán)畫角色更一致了!人物之間的復(fù)雜互動(dòng)也能處理|中山大學(xué)&amp;聯(lián)想團(tuán)隊(duì)出品

      發(fā)布時(shí)間:2024-06-16 10:30:06 編輯: 來源:
      導(dǎo)讀 相信很多大家對(duì)AI畫連環(huán)畫角色更一致了!人物之間的復(fù)雜互動(dòng)也能處理|中山大學(xué)&聯(lián)想團(tuán)隊(duì)出品還不知道吧,今天菲菲就帶你們一起去了解一下~...

      相信很多大家對(duì)AI畫連環(huán)畫角色更一致了!人物之間的復(fù)雜互動(dòng)也能處理|中山大學(xué)&聯(lián)想團(tuán)隊(duì)出品還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      讓AI畫漫畫角色保持一致的新研究來了!

      創(chuàng)作的連環(huán)畫效果belike:

      頻繁切換主體、人物之間復(fù)雜的互動(dòng)也能保持角色一致性:

      上述效果來自AutoStudio,是一個(gè)由中山大學(xué)和聯(lián)想團(tuán)隊(duì)聯(lián)合提出的無需訓(xùn)練的多智能體協(xié)同框架。

      AutoStudio采用基于大語(yǔ)言模型的三個(gè)智能體來處理交互,并使用基于擴(kuò)散模型的Drawer生成高質(zhì)量圖像。

      實(shí)驗(yàn)中,AutoStudio無論是在定量還是定性評(píng)估中都優(yōu)于現(xiàn)有方法。

      AutoStudio長(zhǎng)啥樣?

      由于最先進(jìn)的T2I生成模型在生成令人印象深刻的單個(gè)圖像方面表現(xiàn)出了卓越的能力,研究界對(duì)更復(fù)雜的多輪交互式圖像生成工作的興趣與日俱增。

      在現(xiàn)實(shí)世界的應(yīng)用中,用戶經(jīng)常需要以交互方式生成一系列圖像,其中包括各種任務(wù),如開放式故事生成和多主體多輪編輯。

      然而,目前的方法大多數(shù)要求預(yù)先定義所有輪的生成指令,并且在面對(duì)不同的用戶指令(如定制、編輯和大量交叉引用)時(shí),很難在多個(gè)主體之間保持一致性。

      為了解決這些問題,研究團(tuán)隊(duì)引入了AutoStudio,這是一個(gè)多智能體、無需訓(xùn)練的框架,具有四個(gè)特別定制的智能體,利用現(xiàn)成的模型與用戶進(jìn)行即時(shí)交互。

      他們的目標(biāo)是引入一個(gè)多功能、可擴(kuò)展的框架,通過多智能體協(xié)作,可以將任何所需的LLM架構(gòu)和擴(kuò)散骨干結(jié)合到框架中,以滿足用戶多輪生成的多樣化需求。

      具體而言,AutoStudio包括三個(gè)基于LLM的智能體:

      主題管理器解釋對(duì)話,識(shí)別不同的主題,并為其分配適當(dāng)?shù)纳舷挛?

      布局生成器為每個(gè)主題生成部分級(jí)別的邊界框,以控制主題的位置;

      監(jiān)督員為布局生成器提供布局改進(jìn)和修正的建議。

      最后,繪制器基于擴(kuò)散模型完成基于改進(jìn)布局的圖像生成。

      此外,研究人員在繪制器中引入了一個(gè)并行UNet(P-UNet),它具有一種新穎的架構(gòu),利用兩個(gè)并行的交叉注意力模塊分別增強(qiáng)文本和圖像嵌入的潛在主題特征。

      為了進(jìn)一步解決SD在理解長(zhǎng)提示和生成過程中缺失和錯(cuò)誤融合主題的限制,研究人員在繪制器中引入了一種主題初始化的生成方法。

      接下來是對(duì)AutoStudio架構(gòu)的詳細(xì)說明。

      多智能體協(xié)同

      研究團(tuán)隊(duì)首先引入一個(gè)主題管理器Manager,它不僅能為主題及其組件分配ID,還能將用戶提示轉(zhuǎn)換為繪圖說明。

      然后,布局生成器Layout Generator對(duì)這些標(biāo)題進(jìn)行處理,生成粗略的布局,其中包含每個(gè)主題及其組件的邊界框和信息。

      為了糾正不合理的主體內(nèi)和主體間空間關(guān)系并完善粗略布局,引入了一個(gè)監(jiān)督器Supervisor。

      該監(jiān)督器將粗布局作為輸入,并向布局生成器提供建議。

      通過這種方式,Supervisor和Layout Generator密切協(xié)作,形成一個(gè)布局細(xì)化的閉環(huán)流程。

      此外,研究團(tuán)隊(duì)還定義了一組任務(wù)介紹,以指導(dǎo)這三個(gè)基于 LLM 的代理生成格式正確的響應(yīng)。

      最后,給定細(xì)化布局和從主體庫(kù)中獲取的主體信息,繪圖器Drawer可以生成與布局對(duì)齊且包含一致主體的圖像。

      主體初始化生成過程

      為了解決多ID綁定任務(wù)中主體丟失和融合的問題,研究人員引入主體初始化生成過程。

      這個(gè)過程包括對(duì)主體粗粒度特征的單獨(dú)生成,使用提取器提取特征并通過正向擴(kuò)散映射到潛空間并在全局生成的初始幾步進(jìn)行局部替換。

      P-UNet

      Stable Diffusion模型中的原始UNet利用交叉注意模塊來利用文本特征,但這不足以表示多個(gè)主體的空間關(guān)系和特征。

      因此,研究人員提出了利用免訓(xùn)練布局調(diào)整注意力模塊的P-UNet。

      將UNet層的原始交叉注意模塊拆分為兩個(gè)并行的文本和圖像交叉注意模塊(分別稱為PTCA和PICA)來細(xì)化Z,這兩個(gè)模塊具有相同的架構(gòu),其主要思想是計(jì)算Z與每個(gè)主體文本/圖像嵌入之間的特征相似性。

      AutoStudio效果如何?

      研究人員在CMIGBench上利用所選的基準(zhǔn)模型對(duì)AutoStudio進(jìn)行了全面評(píng)估。

      CMIGBench基于故事生成和多輪編輯,包含8000個(gè)多輪腳本對(duì)話(每個(gè)任務(wù)4000個(gè))。

      研究人員選擇了平均弗雷謝特起始距離(aFID)和平均字符-字符相似度(aCCS)這兩個(gè)定量指標(biāo)來評(píng)估上下文一致性,并選擇了平均文本-圖像相似度(aTIS)來評(píng)估主體間的語(yǔ)義一致性。

      結(jié)果,AutoStudio在所有指標(biāo)上都明顯優(yōu)于之前的方法。

      下圖展示了多輪交互式圖像生成的可視化結(jié)果,表明AutoStudio能夠理解用戶的自然語(yǔ)言指令,并生成主題一致的圖像。

      相比而言,Theatergen無法處理人物之間復(fù)雜的互動(dòng)(如擁抱和接吻),而MiniGemini則難以保持主體的一致性。

      Intelligent Grimm和StoryDiffusion無法在多回合互動(dòng)中保持多個(gè)角色之間的一致性,并表現(xiàn)出有限的編輯效果。

      論文鏈接:https://arxiv.org/abs/2406.01388

      項(xiàng)目主頁(yè):https://howe183.github.io/AutoStudio.io/

      —完—

      以上就是關(guān)于【AI畫連環(huán)畫角色更一致了!人物之間的復(fù)雜互動(dòng)也能處理|中山大學(xué)&聯(lián)想團(tuán)隊(duì)出品】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

      熱點(diǎn)推薦

      精選文章