跳至主內容

Deepfake 和虛假影片 -- 如何保護自己?

虛假影片和 Deepfake

出現 Deepfake 的新世界

Deepfake 影片是一個合成詞 - 「deep」來自「deep learning(深度學習)」,而「fake」顯然來自「fake(虛假)」。深度學習是一種先進的人工智能(AI)方法,使用多層機器學習演算法從原始輸入內容中逐步提取更高層次的特徵。它能夠從非結構化數據(例如人臉)中學習。例如,AI 可以收集有關你的身體動作的數據。

然後處理這些數據,並透過 GAN(生成式對抗網絡)製作 Deepfake 影片。這是另一種專門的機器學習系統。使用兩個神經網絡進行互相競爭,從而學習訓練集(例如,人臉照片)的特徵,然後產生具有相同特徵的新數據(新的「照片」)。

因為這樣的網絡不斷根據訓練集測試它所創造的圖像,所以假圖像變得越來越有說服力。這使得 Deepfake 成為一種越來越強大的威脅。此外,GAN 可以偽造除照片和影片以外的其他數據。事實上,相同的 Deepfake 機器學習和合成技術可用於偽造語音。

Deepfake 例子

備受矚目的 Deepfake 實例並不難找到。Deepfake 的一個例子是演員喬丹皮爾 (Jordan Peele) 發佈的影片,他在影片中將奧巴馬的真實片段與他自己對奧巴馬的印象結合起來,對 Deepfake 影片發出警告。然後,他展示了合併影片的兩半在分開時的模樣。他想建議甚麼?我們需要質疑我們所看到的一切。

在 Instagram 上,出現了一段 Facebook 行政總裁朱克柏格的影片,他在談論 Facebook 如何透過盜取用戶資料來「控制未來」。原始影片來自他就俄羅斯干預選舉發表的演講,而僅使用那次演講的 21 秒片段就足以合成新的影片。但是,這段影片的聲音模仿比喬丹皮爾 (Jordan Peele) 的影片遜色,從而露出了馬腳。

但即使是製作精良的虛假內容也能產生重大的影響。佩洛西 (Nancy Pelosi) 的酒醉影片在 YouTube 上獲得了數百萬的觀看次數,然而這只是一段虛假影片,以人為方式減慢了影片的速度來產生她說話含糊不清的效果。很多知名女性發現自己「主演」將她們的臉變成色情電影和圖片中女主角的復仇色情內容。

Deepfake 威脅 -- 欺詐和勒索

Deepfake 影片已被用於政治目的以及個人報復行為中。但越來越多的情況是被用於嘗試進行勒索和欺詐。

英國某間能源公司的行政總裁收到來自母公司負責人的 Deepfake 語音緊急轉移資金要求,最後被騙走了 24.3 萬美元。這段虛假影片由於太有說服力,他根本沒有想過去查核;資金不是電匯到總部,而是電匯到第三方的銀行戶口。當他的「老闆」要求再次轉賬時,這位行政總裁才開始懷疑。這一次雖然敲響了警鐘,但要取回他已經轉賬的資金已為時已晚。

在法國,最近的一宗詐騙案並未使用 Deepfake 技術,但透過冒充,以及精心仿造外交部長勒德里昂的辦公室及傢具,企圖詐騙高級管理人員數百萬歐元。詐騙犯 Gilbert Chikli 被指控偽裝成外交部長,向富人和公司高級管理人員索取贖金,以換取解救在敘利亞的法國人質;他目前正在接受審判。

Deepfake 的威脅與危險

Deepfake 作者也有可能會威脅發佈具有破壞性的 Deepfake 影片來勒索公司的總裁,除非他們支付贖金。或者,入侵者只需合成來自你的資訊總監的影片通話,誘騙員工提供密碼和權限,從而入侵你的網絡,然後黑客就可以在你的敏感資料庫中四處破壞。

Deepfake 色情影片已經被用來勒索女性記者和新聞工作者,例如揭露濫用權力的印度 Rana Ayyub 女士。隨著技術變得越來越便宜,預計將會看到更多使用 Deepfake 的勒索和欺詐事件。

我們如何保護自己免受 Deepfake 的侵害?

已經開始立法以解決 Deepfake 影片的威脅。例如,在加利福尼亞州,去年通過的兩項法案將 Deepfake 的某些方面定為非法 -- AB-602 禁止在未經被描繪者同意的情況下使用人類圖像合成製作色情內容,AB-730 禁止在選舉 60 天內利用政治候選人的圖像。

但這是否足夠呢?幸好,網絡安全公司一直在思考更多更好的偵測演算法。這些技術會分析影片圖像並發現在「偽造」過程中產生的微小失真。例如,目前的 Deepfake 合成器對 2D 面部進行建模,然後將其扭曲來適應影片的 3D 透視角度,而查看鼻子指向哪個方向則是一個關鍵的線索。

Deepfake 影片仍處於你可以自己發現跡象的階段。搜尋 Deepfake 影片的以下特徵:

  • 不流暢的動作
  • 從一個幀切換到下一個幀的光線照明
  • 膚色變化
  • 奇怪的閃爍或完全沒有閃爍
  • 嘴唇與語音不同步
  • 圖像中的數碼偽像

但隨著 Deepfakes 的不斷改善,你依靠自己的眼睛所獲得的幫助會越來越少,而從良好的網絡安全程式中獲得的幫助則會更多。

最先進的防偽技術

一些新興技術現在正在幫助影片製作者驗證他們的影片。加密演算法可用於在指定影片過程中某些時間間隔插入哈希值;如果影片被更改,哈希值會發生變化。AI 和區塊鏈可以為影片註冊防篡改的數碼指紋。這類似於為文檔添加浮水印;而針對影片的難處在於,如果影片被壓縮以用於不同的編解碼器,則哈希值需要保留下來。

擊退 Deepfake 的仿冒企圖的另一種方法是使用一個可將專門設計的數碼「偽像」插入影片中的程式,從而隱藏人臉偵測軟件使用的圖元模式。然後,這些「偽像」會減慢 Deepfake 演算法的速度並導致品質不佳的結果,從而降低 Deepfake 成功的機會。

優良的安全程式是最好的保護

但技術並不是防範 Deepfake 影片的唯一方法。優良的基本安全程式在對抗 Deepfake 方面非常有效。

例如,在任何資金支付流程中內置自動檢查將阻止許多 Deepfake 和類似的欺詐行為。你還可以做以下事情:

  • 確保員工和家人瞭解 Deepfake 的運作原理及其可能帶來的挑戰。
  • 教育自己和他人如何識別 Deepfake 作品。
  • 確保你具有媒體素養並使用高質素的新聞來源。
  • 擁有優良的基本協定 -- 「信任但驗證」。對語音郵件和影片持懷疑態度並不能保證你永遠不會被欺騙,但可以幫助你避免很多陷阱。

請記住,如果黑客開始部署 Deepfake 並試圖闖入家居和企業網絡,那麼若要最大限度地降低風險,遵照基本的網絡安全最佳實踐方法將可發揮關鍵作用:

  • 定期備份可保護你的數據免受勒索軟件的侵害,並使你能夠恢復損壞的數據。
  • 為不同的帳戶使用不同的強密碼,則可確保若一個網絡或服務被入侵,也不代表任何其他網絡或服務都已被入侵。如果有人進入了你的 Facebook 帳戶,你不會希望他們也能夠進入你的其他帳戶。
  • 使用優良的安全套裝軟件,例如 Kaspersky Premium,可保護你的家居網絡、手提電腦和智能手機免受網絡威脅的侵害。此套套裝軟件提供防毒軟件、用於阻止你的 Wi-Fi 連接被黑客入侵的 VPN,以及為你的網絡攝影機提供保護。

Deepfake 未來將如何發展?

Deepfake 不斷演變。兩年前,透過動作笨拙以及被冒充的人似乎從未眨眼的痕跡,很容易判斷出是 Deepfake 影片。但最新一代的虛假影片已經進化和適應。

據估計,目前有超過 15,000 個 Deepfake 影片。有些只是為了好玩,而另一些則試圖操控你的意見。但現在只需要一兩天就可以製作一個新的 Deepfake 作品,而這個數字可能會迅速上升。

推薦產品:

Deepfake 和虛假影片 -- 如何保護自己?

黑客的行為早已超越了將政客的臉貼到色情明星的身體上。現在,利用類似於荷里活電影使用的技術,Deepfake影片可以將創作的對白從受害者的口中說來,然後用來損害他們的聲譽,甚至勒索他們。
Kaspersky 標誌

相關文章