- +1
走出恐怖谷:AI已能合成難辨真假的人臉照片,還更被信任
看到這張照片,你是否覺得這就是一張真實的人臉照片?事實上,這是一個名為“此人不存在”的網(wǎng)站生成的合成人臉照片(this-person-does-not-exist.com)。
“我們對AI合成人臉照片真實感的評估表明,合成引擎已經(jīng)走過了‘恐怖谷’,能夠創(chuàng)造出跟真實人臉難以區(qū)分且更受人信賴的人臉?!?月14日,一篇發(fā)表在《美國國家科學院院刊》(PNAS)的論文在摘要中表示。
“恐怖谷效應”于1970年由森昌弘提出,是一個關(guān)于人類對機器人和非人類物體感覺的假設(shè)。
“恐怖谷效應”稱,由于機器人與人類在外表、動作上相似,所以人類亦會對機器人產(chǎn)生正面的情感;而當機器人與人類的相似程度達到一個特定程度的時候,人類對他們的反應便會突然變得極其負面和反感,哪怕機器人與人類只有一點點的差別,都會顯得非常顯眼刺目,從而覺得整個機器人非常僵硬恐怖。在合成人臉照片的情景中,“恐怖谷”效應往往來自于合成人眼中空洞的表情所引發(fā)的不安感。

而一旦機器人和人類的相似度繼續(xù)上升,相當于普通人之間的相似度時,人類對其的情感反應會再度回到正面,產(chǎn)生人類與人類之間的移情。

越來越令人信服的圖像正在將觀者拉出“恐怖谷”,進入由Deepfake(深度偽造)構(gòu)建的欺騙世界。在加州大學伯克利分校教授Hany Farid和蘭開斯特大學博士生Sophie Nightingale的《AI合成的人臉與真實人臉沒有區(qū)別且更被信賴》研究中,參與實驗的人被要求區(qū)分神經(jīng)網(wǎng)絡(luò)StyleGAN2合成人臉和真實人臉,以及這些人臉喚起的信任程度。
這項研究由三個實驗構(gòu)成。在第一個實驗中,315名參與者從128張面孔(從一組800張面孔中提?。┓诸悶檎鎸嵜婵谆蚝铣擅婵?,準確率為48%。
在第二個實驗中,219名新參與者被培訓如何識別真實人臉與合成人臉,然后與第一個實驗一樣對128張人臉進行分類。盡管進行了訓練,最后準確率也只是提高到了59%。
繼而,研究人員決定探索可信度的感知是否可以幫助人們識別人造圖像,“人臉提供了豐富的信息來源,只需幾毫秒的時間就足以對個人特征(例如可信度)進行隱含推斷。我們想知道合成面孔是否會激活相同的可信度判斷,如果不是,那么對可信度的感知可能有助于區(qū)分真實面孔和合成面孔。”
第三項實驗,223名參與者對128張面孔的可信度進行評分,這些面孔取自同一組800張面孔,評分范圍為1(非常不可信)到7(非??尚牛W詈螅铣擅婵椎钠骄u分比真實面孔的平均評分高7.7%,具有統(tǒng)計學意義。
整個實驗結(jié)果表明,合成的人臉照片與真實人臉幾乎無法區(qū)分,甚至被認為更值得信賴。這樣的結(jié)果也在研究者的意料之外,Nightingale表示,“我們最初認為合成面孔不如真實面孔可信。”
這個生成人臉照片的StyleGAN是Nvidia于2018年開發(fā)的一種神經(jīng)網(wǎng)絡(luò)。GAN由2個相互競爭的神經(jīng)網(wǎng)絡(luò)組成,其中一個稱為生成器,不斷生成一些東西,另一個稱為鑒別器,不斷嘗試確定結(jié)果是真實的還是由第一個生成的。生成器以隨機像素開始練習。隨著鑒別器的反饋,它逐漸產(chǎn)生了越來越逼真的人臉。最終,鑒別器無法區(qū)分真臉和假臉,訓練就結(jié)束了。
創(chuàng)建不存在的人臉照片實際上是GAN的一個副產(chǎn)品,其原本的主要目標是訓練人工智能識別假臉和一般人臉,Nvidia需要通過自動識別人臉并對其應用其他渲染算法來提高其顯卡性能。然而,由于StyleGAN代碼是公開的,Uber的一名工程師就利用它創(chuàng)建了一個隨機人臉生成器。
對于Deepfake(深度偽造)技術(shù)的惡意使用已經(jīng)在現(xiàn)實中有了諸多體現(xiàn),比如美國大選中的虛假宣傳活動,為勒索而創(chuàng)造的虛假色情內(nèi)容等等。自Deepfake技術(shù)出現(xiàn)以來,鑒別出深度偽造和進一步欺騙鑒別之間已經(jīng)變成了一場“軍備競賽”。
現(xiàn)在這項對Deepfake進展的研究使人更加擔心其被濫用,“任何人都可以在沒有Photoshop或 CGI專業(yè)知識的情況下創(chuàng)建合成內(nèi)容,”Nightingale表示。
美國南加州大學視覺智能和多媒體分析實驗室主任Wael Abd-Almageed在接受《科學美國人》采訪時表示,“另一個擔憂是,這些發(fā)現(xiàn)會讓人覺得深度偽造將變得完全無法檢測到,科學家們可能會放棄嘗試開發(fā)針對深度偽造的對策?!?/p>
兩位研究者也提出了應對措施,如將強大的水印合并到圖像和視頻合成網(wǎng)絡(luò)中,這將為可靠識別提供有效機制。
論文中寫道,也許最有害的是,在任何圖像和視頻都可以偽造的數(shù)字世界中,任何不受歡迎的記錄的真實性都可能受到質(zhì)疑?!八?,我們鼓勵推進技術(shù)發(fā)展的人們考慮風險是否大于收益,而不僅僅從技術(shù)角度考慮其是否可能實現(xiàn)?!?/p>





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




