AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制
相信很多大家對AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制還不知道吧,今天菲菲就帶你們一起去了解一下~.~!
站長之家(ChinaZ.com)5月21日 消息:強(qiáng)大的人工智能模型有時會出現(xiàn)錯誤,包括虛構(gòu)錯誤信息或?qū)⑺俗髌纷鳛樽约旱?。為了解決后者的問題,德克薩斯大學(xué)奧斯汀分校的研究團(tuán)隊開發(fā)了一種名為 "Ambient Diffusion" 的框架。該框架通過對無法辨認(rèn)的圖像數(shù)據(jù)進(jìn)行訓(xùn)練,繞過了 AI 模型復(fù)制他人作品的問題。
DALL-E、Midjourney 和 Stable Diffusion 是文本到圖像擴(kuò)散生成的人工智能模型,它們能夠?qū)⑷我庥脩粑谋巨D(zhuǎn)化為高度逼真的圖像。這三個模型都面臨著藝術(shù)家提起訴訟的問題,他們聲稱生成的樣本復(fù)制他們的作品。這些模型是通過訓(xùn)練數(shù)十億個圖像 - 文本對來實現(xiàn)的,這些對外不公開,它們能夠生成高質(zhì)量的圖像,但可能會使用版權(quán)圖像并復(fù)制它們。
"Ambient Diffusion" 框架的提出解決了這個問題,通過僅通過擾亂后的圖像數(shù)據(jù)對擴(kuò)散模型進(jìn)行訓(xùn)練。初步實驗表明,該框架仍然能夠生成高質(zhì)量的樣本,而不需要看到任何可識別為原始源圖像的內(nèi)容。研究團(tuán)隊首先在一組3000張名人圖片上訓(xùn)練了一個擴(kuò)散模型,然后使用該模型生成了新的樣本。
在實驗中,用清晰的數(shù)據(jù)訓(xùn)練的擴(kuò)散模型明顯復(fù)制了訓(xùn)練樣本。但當(dāng)研究人員對訓(xùn)練數(shù)據(jù)進(jìn)行擾亂,隨機(jī)遮擋圖像中的個別像素,然后用新的方法對模型進(jìn)行重新訓(xùn)練時,生成的樣本保持了高質(zhì)量,但看起來完全不同。該模型仍然可以生成人臉,但生成的人臉與訓(xùn)練圖像有明顯的區(qū)別。
研究人員表示,這指向了一個解決方案,盡管可能會改變性能,但永遠(yuǎn)不會輸出噪聲。這一框架為學(xué)術(shù)研究人員如何推進(jìn)人工智能以滿足社會需求提供了一個示例。德克薩斯大學(xué)奧斯汀分校已將2024年宣布為 "AI 之年",這是今年的一個關(guān)鍵主題。該研究團(tuán)隊還包括加州大學(xué)伯克利分校和麻省理工學(xué)院的成員。
論文:https://arxiv.org/abs/2305.19256
關(guān)聯(lián)項目:https://github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file
以上就是關(guān)于【AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制】的相關(guān)內(nèi)容,希望對大家有幫助!