中文字幕国产91无码|AV成人手机在线|av成人先锋在线|911无码在线国产人人操|91蜜桃视频精品免费在线|极品美女A∨片在线看|日韩在线成人视频日韩|电影三级成人黄免费影片|超碰97国产在线|国产成人精品色情免费视频

  • +1

走出恐怖谷:AI已能合成難辨真假的人臉照片,還更被信任

澎湃新聞記者 邵文
2022-02-16 11:08
來源:澎湃新聞
? 科學湃 >
聽全文
字號

看到這張照片,你是否覺得這就是一張真實的人臉照片?

事實上,這是一個名為“此人不存在”的網(wǎng)站生成的合成人臉照片(this-person-does-not-exist.com)。

“我們對AI合成人臉照片真實感的評估表明,合成引擎已經(jīng)走過了‘恐怖谷’,能夠創(chuàng)造出跟真實人臉難以區(qū)分且更受人信賴的人臉?!?月14日,一篇發(fā)表在《美國國家科學院院刊》(PNAS)的論文在摘要中表示。

“恐怖谷效應”于1970年由森昌弘提出,是一個關(guān)于人類對機器人和非人類物體感覺的假設(shè)。

“恐怖谷效應”稱,由于機器人與人類在外表、動作上相似,所以人類亦會對機器人產(chǎn)生正面的情感;而當機器人與人類的相似程度達到一個特定程度的時候,人類對他們的反應便會突然變得極其負面和反感,哪怕機器人與人類只有一點點的差別,都會顯得非常顯眼刺目,從而覺得整個機器人非常僵硬恐怖。在合成人臉照片的情景中,“恐怖谷”效應往往來自于合成人眼中空洞的表情所引發(fā)的不安感。

而一旦機器人和人類的相似度繼續(xù)上升,相當于普通人之間的相似度時,人類對其的情感反應會再度回到正面,產(chǎn)生人類與人類之間的移情。

越來越令人信服的圖像正在將觀者拉出“恐怖谷”,進入由Deepfake(深度偽造)構(gòu)建的欺騙世界。在加州大學伯克利分校教授Hany Farid和蘭開斯特大學博士生Sophie Nightingale的《AI合成的人臉與真實人臉沒有區(qū)別且更被信賴》研究中,參與實驗的人被要求區(qū)分神經(jīng)網(wǎng)絡(luò)StyleGAN2合成人臉和真實人臉,以及這些人臉喚起的信任程度。

這項研究由三個實驗構(gòu)成。在第一個實驗中,315名參與者從128張面孔(從一組800張面孔中提?。┓诸悶檎鎸嵜婵谆蚝铣擅婵?,準確率為48%。

在第二個實驗中,219名新參與者被培訓如何識別真實人臉與合成人臉,然后與第一個實驗一樣對128張人臉進行分類。盡管進行了訓練,最后準確率也只是提高到了59%。

繼而,研究人員決定探索可信度的感知是否可以幫助人們識別人造圖像,“人臉提供了豐富的信息來源,只需幾毫秒的時間就足以對個人特征(例如可信度)進行隱含推斷。我們想知道合成面孔是否會激活相同的可信度判斷,如果不是,那么對可信度的感知可能有助于區(qū)分真實面孔和合成面孔。”

第三項實驗,223名參與者對128張面孔的可信度進行評分,這些面孔取自同一組800張面孔,評分范圍為1(非常不可信)到7(非??尚牛W詈螅铣擅婵椎钠骄u分比真實面孔的平均評分高7.7%,具有統(tǒng)計學意義。

整個實驗結(jié)果表明,合成的人臉照片與真實人臉幾乎無法區(qū)分,甚至被認為更值得信賴。這樣的結(jié)果也在研究者的意料之外,Nightingale表示,“我們最初認為合成面孔不如真實面孔可信。”

這個生成人臉照片的StyleGAN是Nvidia于2018年開發(fā)的一種神經(jīng)網(wǎng)絡(luò)。GAN由2個相互競爭的神經(jīng)網(wǎng)絡(luò)組成,其中一個稱為生成器,不斷生成一些東西,另一個稱為鑒別器,不斷嘗試確定結(jié)果是真實的還是由第一個生成的。生成器以隨機像素開始練習。隨著鑒別器的反饋,它逐漸產(chǎn)生了越來越逼真的人臉。最終,鑒別器無法區(qū)分真臉和假臉,訓練就結(jié)束了。

創(chuàng)建不存在的人臉照片實際上是GAN的一個副產(chǎn)品,其原本的主要目標是訓練人工智能識別假臉和一般人臉,Nvidia需要通過自動識別人臉并對其應用其他渲染算法來提高其顯卡性能。然而,由于StyleGAN代碼是公開的,Uber的一名工程師就利用它創(chuàng)建了一個隨機人臉生成器。

對于Deepfake(深度偽造)技術(shù)的惡意使用已經(jīng)在現(xiàn)實中有了諸多體現(xiàn),比如美國大選中的虛假宣傳活動,為勒索而創(chuàng)造的虛假色情內(nèi)容等等。自Deepfake技術(shù)出現(xiàn)以來,鑒別出深度偽造和進一步欺騙鑒別之間已經(jīng)變成了一場“軍備競賽”。

現(xiàn)在這項對Deepfake進展的研究使人更加擔心其被濫用,“任何人都可以在沒有Photoshop或 CGI專業(yè)知識的情況下創(chuàng)建合成內(nèi)容,”Nightingale表示。

美國南加州大學視覺智能和多媒體分析實驗室主任Wael Abd-Almageed在接受《科學美國人》采訪時表示,“另一個擔憂是,這些發(fā)現(xiàn)會讓人覺得深度偽造將變得完全無法檢測到,科學家們可能會放棄嘗試開發(fā)針對深度偽造的對策?!?/p>

兩位研究者也提出了應對措施,如將強大的水印合并到圖像和視頻合成網(wǎng)絡(luò)中,這將為可靠識別提供有效機制。

論文中寫道,也許最有害的是,在任何圖像和視頻都可以偽造的數(shù)字世界中,任何不受歡迎的記錄的真實性都可能受到質(zhì)疑?!八?,我們鼓勵推進技術(shù)發(fā)展的人們考慮風險是否大于收益,而不僅僅從技術(shù)角度考慮其是否可能實現(xiàn)?!?/p>

 

 

    責任編輯:李躍群
    校對:劉威
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務許可證:31120170006

            增值電信業(yè)務經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報業(yè)有限公司