日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制

      發(fā)布時間:2024-05-21 15:03:59 編輯: 來源:
      導(dǎo)讀 相信很多大家對AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制還不知道吧,今天菲菲就帶你們一起去了解一下~.~! 站長之家(Chin...

      相信很多大家對AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      站長之家(ChinaZ.com)5月21日 消息:強(qiáng)大的人工智能模型有時會出現(xiàn)錯誤,包括虛構(gòu)錯誤信息或?qū)⑺俗髌纷鳛樽约旱?。為了解決后者的問題,德克薩斯大學(xué)奧斯汀分校的研究團(tuán)隊開發(fā)了一種名為 "Ambient Diffusion" 的框架。該框架通過對無法辨認(rèn)的圖像數(shù)據(jù)進(jìn)行訓(xùn)練,繞過了 AI 模型復(fù)制他人作品的問題。

      DALL-E、Midjourney 和 Stable Diffusion 是文本到圖像擴(kuò)散生成的人工智能模型,它們能夠?qū)⑷我庥脩粑谋巨D(zhuǎn)化為高度逼真的圖像。這三個模型都面臨著藝術(shù)家提起訴訟的問題,他們聲稱生成的樣本復(fù)制他們的作品。這些模型是通過訓(xùn)練數(shù)十億個圖像 - 文本對來實現(xiàn)的,這些對外不公開,它們能夠生成高質(zhì)量的圖像,但可能會使用版權(quán)圖像并復(fù)制它們。

      "Ambient Diffusion" 框架的提出解決了這個問題,通過僅通過擾亂后的圖像數(shù)據(jù)對擴(kuò)散模型進(jìn)行訓(xùn)練。初步實驗表明,該框架仍然能夠生成高質(zhì)量的樣本,而不需要看到任何可識別為原始源圖像的內(nèi)容。研究團(tuán)隊首先在一組3000張名人圖片上訓(xùn)練了一個擴(kuò)散模型,然后使用該模型生成了新的樣本。

      在實驗中,用清晰的數(shù)據(jù)訓(xùn)練的擴(kuò)散模型明顯復(fù)制了訓(xùn)練樣本。但當(dāng)研究人員對訓(xùn)練數(shù)據(jù)進(jìn)行擾亂,隨機(jī)遮擋圖像中的個別像素,然后用新的方法對模型進(jìn)行重新訓(xùn)練時,生成的樣本保持了高質(zhì)量,但看起來完全不同。該模型仍然可以生成人臉,但生成的人臉與訓(xùn)練圖像有明顯的區(qū)別。

      研究人員表示,這指向了一個解決方案,盡管可能會改變性能,但永遠(yuǎn)不會輸出噪聲。這一框架為學(xué)術(shù)研究人員如何推進(jìn)人工智能以滿足社會需求提供了一個示例。德克薩斯大學(xué)奧斯汀分校已將2024年宣布為 "AI 之年",這是今年的一個關(guān)鍵主題。該研究團(tuán)隊還包括加州大學(xué)伯克利分校和麻省理工學(xué)院的成員。

      論文:https://arxiv.org/abs/2305.19256

      關(guān)聯(lián)項目:https://github.com/giannisdaras/ambient-tweedie?tab=readme-ov-file

      以上就是關(guān)于【AI 框架Ambient Diffusion:從圖像中獲取靈感,而非復(fù)制】的相關(guān)內(nèi)容,希望對大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

      熱點(diǎn)推薦

      精選文章