在以哈衝突中,有一些特別引人注目、沾滿鮮血的棄嬰照片,事實上是人工智能(AI)製作的深偽(Deepfakes)圖像。戰爭開始以來,這些圖片在網上已被瀏覽了數百萬次。
如果仔細觀察,可發現一些蛛絲馬跡:照片裏的手指奇怪地彎曲,或者人物的眼睛閃爍著不自然的光芒。然而,這些圖片所引發的憤怒卻是真實的。
以哈戰爭中的圖片,生動且殘酷地展示了AI作為宣傳工具的潛力,它可創造出栩栩如生的大屠殺圖像,用來欺騙民眾,讓他們相信從未發生過的暴行。
隨著技術不斷進步,且缺乏監管。專家們擔心,未來的衝突、選舉和其它重大事件中,AI可能更頻繁的被濫用。
CREOpoint是一家總部位於三藩市和巴黎的科技公司,該公司創建了一個資料庫,收錄了網上熱傳的加沙地區深偽圖像與影音。
CREOpoint的行政總裁Jean-Claude Goldenstein說:「在好轉之前,情況會變得更糟,非常糟。」
「圖片、視訊和音訊:有了生成式AI,這將是前所未有的升級。」Goldenstein說。
有時候,來自其他衝突或災難的照片,會被AI重新利用,製作成新照片。有時候,生成式AI可以無中生有,從頭創建一張圖像。例如,在衝突初期,一個嬰兒在轟炸殘骸中哭泣的圖像在網絡上瘋傳,然而那其實是AI偽造的。
AI生成的圖像,還包括一些影片,顯示所謂的以色列導彈襲擊,或坦克軋過被毀壞的街區,或家人在廢墟中尋找倖存者等。
在許多情況下,這些偽造的影片似乎是為了喚起人們強烈的情感反應,其中包括嬰兒、兒童的屍體。
非牟利組織「反數字仇恨中心」(CCDH)行政總裁Imran Ahmed說,製作這類圖片的宣傳者,善於抓住人們內心深處的衝動和焦慮。
圖片越令人憎惡,用戶就越有可能記住並分享它,從而在不知不覺中進一步傳播虛假資訊。
在俄烏戰爭中,也有一段經過篡改的影片顯示烏克蘭總統澤連斯基(Volodymyr Zelenskyy)命令烏克蘭人投降。這則影片直到上周還在網上流傳,這說明了即使是很容易被揭穿的錯誤資訊,也能長期傳播。
這讓許多AI專家發出警告,明年有幾個國家要舉行大選,包括美國、印度、巴基斯坦、烏克蘭、台灣、印度尼西亞和墨西哥等。AI和社交媒體可能被用來散布謊言。
在最近一次關於深偽技術危險的聽證會上,民主黨聯邦眾議員Gerry Connolly表示,美國政府應投資開發能反制其它AI的AI工具。
全球各地都有初創公司在開發新程序,以識別深偽作品。
David Doermann是一名電腦科學家,曾領導美國國防部高級研究計劃局(DARPA)應對AI操縱圖像對國家安全造成的威脅。
Doermann現在是布法羅大學(University at Buffalo)的教授,他說,要有效應對AI虛假資訊帶來的政治和社會挑戰,需要更好的技術和更完善的法規、自願性行業標準,以及對數字素養計劃的廣泛投資,幫助互聯網用戶找出分辨真假的方法。
說:「檢測和試圖清除這些東西不再是解決辦法。我們需要一個更大的解決方案。」#
(本文參考了美聯社的報道)
------------------
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand