日本高清色午夜com,色综合国产精品视频,午夜亚洲在在线观看,国产午夜在线网站

      <td id="p7kjh"></td>
      <td id="p7kjh"></td>

      韓國(guó)N號(hào)房卷土重來,這一次是Deepfake,波及超200所學(xué)校

      發(fā)布時(shí)間:2024-08-30 14:00:31 編輯: 來源:
      導(dǎo)讀 相信很多大家對(duì)韓國(guó)N號(hào)房卷土重來,這一次是Deepfake,波及超200所學(xué)校還不知道吧,今天菲菲就帶你們一起去了解一下~.~! Deepfake(深度偽...

      相信很多大家對(duì)韓國(guó)N號(hào)房卷土重來,這一次是Deepfake,波及超200所學(xué)校還不知道吧,今天菲菲就帶你們一起去了解一下~.~!

      Deepfake(深度偽造),再度深陷輿論的風(fēng)波。

      這一次,用這項(xiàng)AI技術(shù)犯罪的嚴(yán)重程度被網(wǎng)友直呼是“韓國(guó)N號(hào)房2.0”,魔爪甚至伸向了眾多未成年人!

      事件影響之大,直接沖上了各大熱搜、熱榜。

      早在今年5月,《韓聯(lián)社》便通報(bào)過一則消息,內(nèi)容是:

      僅是這位樸某便用Deepfake合成了大約400個(gè)色情視頻和照片,并與同伙一起分發(fā)了1700個(gè)露骨的內(nèi)容。

      然而,這件事情還是Deepfake在韓國(guó)泛濫的冰山一角。

      就在最近,與之相關(guān)的更多細(xì)思極恐的內(nèi)幕被陸續(xù)扒了出來。

      例如韓國(guó)婦女人權(quán)研究所公布了一組數(shù)據(jù):

      而這個(gè)“N號(hào)房2.0”也是非常恐怖的存在。

      據(jù)《阿里郎》進(jìn)一步的報(bào)道:

      不僅如此,這次輿論的興起過程也是非常的drama。

      因?yàn)檎厥碌捻n國(guó)男性們(以下簡(jiǎn)稱韓男)可以說是非常的猖獗,有輿論苗頭的時(shí)候,他們就會(huì)稍微“克制”一下:

      有些韓男對(duì)這件事的態(tài)度也是較為惡劣,甚至有初中男生開公開寫到“不用擔(dān)心,你不夠漂亮,不至于被Deepfake”這種話。

      于是乎,韓國(guó)女性們(以下簡(jiǎn)稱韓女)的反擊開始了。

      她們將“陣地”轉(zhuǎn)向韓國(guó)之外的社交媒體,例如在X上,有人發(fā)布了制作Deepfake學(xué)校的地圖:

      還有韓女在微博中發(fā)布“求救貼”:

      隨著輿論在各大社交媒體上發(fā)酵,韓國(guó)政府也出面做出了表態(tài):

      據(jù)了解,韓國(guó)警方已成立特別工作組,專門應(yīng)對(duì)深度偽造性犯罪等虛假視頻案件,該工作組將運(yùn)行到明年3月31日。

      Deepfake已逐漸進(jìn)化

      事實(shí)上,最新Deepfake技術(shù)已經(jīng)進(jìn)化到了“恐怖”階段!

      生圖AI Flux以一組真假難分的TED演講照片,引千萬??(前推特)網(wǎng)友在線打假。(左邊由AI生成)

      深夜直播的“馬斯克”,也吸引了上萬群眾圍觀打賞,甚至搞起了網(wǎng)友連麥。

      要知道,整場(chǎng)直播僅用一張圖片就能實(shí)現(xiàn)實(shí)時(shí)換臉。

      這一切果真如網(wǎng)友所言,Deepfake已將科幻照進(jìn)現(xiàn)實(shí)。

      其實(shí),Deepfake一詞最早起源于2017年,當(dāng)時(shí)一名Reddit用戶“Deepfakes”將色情女演員的面部替換成了一些美國(guó)知名演員,引起一片爭(zhēng)議。

      而這項(xiàng)技術(shù)可以追溯到2014年,Goodfellow與同事發(fā)表了全球首篇介紹GAN的科學(xué)論文。

      當(dāng)時(shí)就有跡象表明,GAN有望生成仿真度極高的人臉。

      后來隨著深度學(xué)習(xí)技術(shù)的發(fā)展,自動(dòng)編碼器、生成對(duì)抗網(wǎng)絡(luò)等技術(shù)逐漸被應(yīng)用到Deepfake中。

      簡(jiǎn)單介紹下Deepfake背后的技術(shù)原理。

      比如偽造一個(gè)視頻。

      其核心原理是利用深度學(xué)習(xí)算法將目標(biāo)對(duì)象的面部“嫁接”到被模仿對(duì)象上。

      由于視頻是連續(xù)的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。

      這里要用到自動(dòng)編碼器,在應(yīng)用于Deepfake的情況下輸入視頻幀,并編碼。

      △圖源:維基百科

      它們由編碼器和解碼器組成,編碼器將圖像減少到較低維的潛空間,解碼器從潛表征中重建圖像。

      簡(jiǎn)單說,編碼器將一些關(guān)鍵特征信息(如面部特征、身體姿勢(shì))轉(zhuǎn)換成低維的潛在空間表示,而解碼器將圖像從潛在表示中恢復(fù)出來,用于給網(wǎng)絡(luò)學(xué)習(xí)。

      再比如偽造圖像。

      這里主要用到生成對(duì)抗網(wǎng)絡(luò)(Gan),它是非監(jiān)督式學(xué)習(xí)的一種方法,通過讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互博弈的方式進(jìn)行學(xué)習(xí)。(此方法也可以用于偽造視頻)

      第一個(gè)算法稱為生成器,輸入隨機(jī)噪聲并將其轉(zhuǎn)換為圖像。

      然后,該合成圖像被添加到真實(shí)圖像流(例如名人圖像)中,這些圖像被輸入到第二個(gè)算法(稱為判別器)中。

      判別器試圖區(qū)分樣本來源于真實(shí)還是合成,每次注意到二者之間的差異時(shí),生成器都會(huì)隨之調(diào)整,直至最終再現(xiàn)真實(shí)圖像,使判別器無法再區(qū)分。

      然而,除了讓外觀上看起來無法區(qū)分,當(dāng)前的Deepfake正在施展“組合拳”。

      聲音克隆也升級(jí)了?,F(xiàn)在,隨便找一個(gè)AI工具,只需提供幾秒原音,就能立馬copy你的聲音。

      用合成聲音偽造名人的事件也層出不窮。

      此外,1張圖生成視頻已不再新奇,而且目前的工作重點(diǎn)在于后續(xù)打磨,比如讓表情、姿勢(shì)看起來更自然。

      其中就有一項(xiàng)唇形同步技術(shù)(Lip syncing),比如讓小李子開口說話。

      ?

      如何識(shí)別Deepfake?

      雖然Deepfake現(xiàn)在已經(jīng)很逼真了,但下面還是給大家介紹一些識(shí)別技巧。

      目前網(wǎng)絡(luò)上大家討論的各種方法,歸納起來就是:

      不尋常或?qū)擂蔚拿娌孔藙?shì)

      不自然的身體運(yùn)動(dòng)(肢體畸變)

      著色不自然

      音頻不一致

      不眨眼的人

      皮膚的衰老與頭發(fā)和眼睛的衰老并不相符

      眼鏡要么沒有眩光,要么有太多眩光,并且無論人如何移動(dòng),眩光角度都保持不變。

      放大后看起來很奇怪的視頻

      ……

      得,列文虎克看了直呼內(nèi)行,不過單憑肉眼觀察著實(shí)有點(diǎn)費(fèi)人了!

      更高效的方法還得是,用魔法打敗魔法——用AI檢測(cè)AI。

      國(guó)內(nèi)外知名科技企業(yè)均有相關(guān)動(dòng)作,比如微軟就開發(fā)了一種身份驗(yàn)證工具,可以分析照片或視頻,并對(duì)其是否被操縱給出評(píng)分。

      OpenAI此前也宣布推出一款工具,用于檢測(cè)由AI圖像生成器DALL-E3創(chuàng)建的圖像。

      在內(nèi)部測(cè)試中,該工具在98%的時(shí)間內(nèi)正確識(shí)別了DALL-E3生成的圖像,并且能以最小的影響處理常見修改,如壓縮、裁剪和飽和度變化。

      芯片制造商英特爾的FakeCatcher則使用算法分析圖像像素來確定真假。

      而在國(guó)內(nèi),商湯數(shù)字水印技術(shù)可將特定信息嵌入到多模態(tài)的數(shù)字載體中,支持圖像、視頻、音頻、文本等多模態(tài)數(shù)字載體。官方稱這種技術(shù)能保證超過99%的水印提取精度,且不會(huì)損失畫質(zhì)精度。

      當(dāng)然了,量子位此前也介紹過一種很火的識(shí)別AI生圖的方法——調(diào)整飽和度檢查人物牙齒。

      飽和度拉滿下,AI人像的牙齒就會(huì)變得非常詭異,邊界模糊不清。

      Science發(fā)文:需要標(biāo)準(zhǔn)和檢測(cè)工具

      就在昨天,Science也發(fā)表了一篇文章對(duì)Deepfake進(jìn)行了探討。

      這篇文章認(rèn)為,Deepfake所帶來的挑戰(zhàn)是科學(xué)研究的完整性——科學(xué)需要信任。

      具體而言,就是由于Deepfake逼真的造假、以及難以檢測(cè)等原因,進(jìn)一步威脅到對(duì)科學(xué)的信任。

      而面對(duì)這一挑戰(zhàn),Science認(rèn)為應(yīng)當(dāng)“兩手抓”,一是使用Deepfake的技術(shù)道德標(biāo)準(zhǔn),二是開發(fā)精準(zhǔn)的檢測(cè)工具。

      在談及Deepfake與教育發(fā)展的關(guān)系時(shí),文章認(rèn)為:

      總而言之,科技道路千萬條,安全第一條。

      One More Thing

      當(dāng)我們讓ChatGPT翻譯相關(guān)事件的內(nèi)容時(shí),它的反應(yīng)是這樣:

      嗯,AI看了都覺得不妥。

      參考鏈接:

      [1]https://en.yna.co.kr/view/AEN20240826009600315

      [2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m

      [3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m

      [4]https://www.arirang.com/news/view?id=275393&lang=en

      [5]https://www.science.org/doi/10.1126/science.adr8354

      [6]https://weibo.com/7865529830/OupjZgcxF

      [7]https://weibo.com/7929939511/Out1p5HOQ

      — 完 —

      以上就是關(guān)于【韓國(guó)N號(hào)房卷土重來,這一次是Deepfake,波及超200所學(xué)校】的相關(guān)內(nèi)容,希望對(duì)大家有幫助!

      免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

      熱點(diǎn)推薦

      精選文章