美國國防部研發第一批發現人工智能換臉技術DeepFakes的工具
據外媒Techspot報道,美國國防部已經通過其開展的一項計劃研發出第一批用于發現取證工具。眾所周知,Deepfakes是使用機器學習在視頻中將一個人的臉部疊加到另一個人臉部的技術。它已經被用來制作名人的視頻,機器人維修,并且通過正確的編輯,它可以完全令人信服。
然而,一些麻煩制造者也可以利用這些技術來制造宣傳虛假事件,欺騙大眾。出于這個原因,美國國防部一直非常有興趣開發能夠檢測甚至打擊這種虛假鏡頭的工具。,《麻省理工科技評論》(MITTechnologyReview)報道稱,這些工具中的第一個已通過名為MediaForensics的美國國防高級研究計劃局(DARPA)計劃推出。該計劃最初是為了自動化現有的取證工具而創建的。然而,該計劃已將重點轉移到開發打擊AI制造偽造內容的方法上。
創建DeepFakes的最有說服力的方法是使用深度學習模型生成式對抗網絡(GAN)。為了使它工作,GAN必須使用被偽造者的幾張圖像。然后,它使用這些圖像來嘗試匹配疊加在其上的面部的角度和傾斜。我們在當前GAN操縱的圖像和視頻中發現了微妙的線索,使我們能夠檢測到變化的存在,MediaForensics項目負責人MatthewTurek表示。
紐約州立大學的SiweiLyu教授講述了他和一些學生如何創造了一堆虛假視頻,試圖了解傳統的取證工具將如何工作。
我們制作了大約50個假視頻并嘗試了一系列傳統的取證方法。然而,在他們的實驗過程中,他們很少注意到deepfakes。此外,在極少數情況下,這種運動看起來不自然。原因很簡單;GAN被輸入靜止圖像,庫卡機器人驅動器維修,幾乎所有對象的眼睛都是打開的。
因此,Lyu和他的紐約州立大學學生正專注于創建一個尋找這個告示標志的AI。他說表示們目前的努力是有效的,但可以通過提供測試圖像眨眼的GAN圖像來欺騙他們。然而,他補充說,他們在作品中有一種秘密技術,www.twshmhelmet.com,甚至更有效。
參與DARPA計劃的其他團體的目標是采用類似的技術。達特茅斯學院的數字取證專家HanyFarid認為,奇怪的頭部動作、奇怪的眼睛顏色和其他面部因素等其他線索可以幫助確定視頻是否被偽造。
表示:我們正在努力開發這些類型的生理信號,至少目前,這些信號很難被模仿。
稱,DARPA打算繼續舉辦MediaForensics競賽,以確保該領域在進一步發展時能夠跟上偽造技術。