「AI換臉」不僅速度快,而且可以以假亂真。這項技術的門檻如今越來越低,在中國最低花2元(30美分)就能合成一個影片。

據中國上海媒體澎湃網4月14日報道,如今在電腦中生成、製作人臉的動態影片非常容易。去年在安徽省合肥市,警方發現幾個人用一張張靜態照片就可以做成動態影片。模擬製作出來的人物不僅能點頭、搖頭,還可做出眨眼、張嘴、皺眉等豐富表情,效果極為逼真。

警察在他們的電腦裏找到的人臉數據多達十幾個G(1G=1024兆),人臉照片和身份證照片按照不同類別存放在不同的文件夾裏。 「身份證正、反面照片、手持身份證照片、自拍照等,被稱為一套。」成套照片被稱為「料」。由於製作簡單,一個影片價格僅售2至10元(0.30至1.55美元)。

參與此案的8個人學歷並不高,有的連高中都沒有讀完。他們按照網購教程下載軟件,花幾個月便自學完成。

除了獲取他人照片之外,如今還有人有償收購他人聲音等「料」。僅需少量音視頻樣本數據,便可合成音視頻,可與真人媲美。

因此,只要拿到一個人的照片和聲音等數據,就可以在電腦上生成關於這個人的影片和音頻。換句話說,即使看到一個人的影片和音頻,卻未必是真實的。中國清華大學人工智能研究院基礎理論研究中心主任朱軍說,深度合成技術飛速發展,讓「眼見不再為實」。

在Youtube上有一個「換臉教程」,主播用一張美國總統的照片置入一個中國歌唱家的影片,只需幾分鐘的時間就生成了美國總統演唱中國歌曲的戲劇效果,從口型上很難看出真偽。

中國「上海科技館」的一篇科普文章介紹了AI換臉的具體方法。文章說,除了五官外,人的年齡、性別、性格、情緒等因素都會反應在臉上。所有這些因素在人工智能的神經網絡模型中,都被視為參數。電腦可以通過對大量的圖片進行學習和總結,得出這些參數,這個過程叫做「訓練」。

文章說,為了使換臉後的圖片或影片看起來更真實,通常藉助「生成對抗網絡」(Generative Adversarial Networks, 簡稱GAN )實現AI換臉。生成對抗網絡通常包含兩部份,一個是生成模型(Generative Model,簡稱G);另一個是判別模型(Discriminative Model,簡稱D),對生成模型合成的人臉進行判別。兩者在大規模的圖片下進行訓練,互為博弈,形成對抗。一旦判別模型無法判斷真偽,就說明訓練得比較成熟了。當深度模型被訓練成熟後,輸入一張人臉,便可以在人臉上生成各種表情,並把它替換到其他圖片或影片中,實現無縫融合。

這項技術原本用於影視作品的後期製作。後來國際上有人用這項技術搞惡作劇,把明星、政要的照片「換臉」至一些影片中,合成一些不存在的發言。此外,一些色情網站還把一些知名藝人(主要是女藝人)的臉植入圖片或影片中,給她們帶來極大傷害。在中國,目前已發現有人用其騙過支付系統的識別,也有人用於註冊手機卡等。

為甚麼註冊手機卡還要「換臉」呢?由於中共長期對民眾實行大規模的監控,購買手機卡需要實名登記,上網發言需要實名認證,有時候買菜刀都需要實名制。所以,換臉可以對抗、躲避中共的監管。

日本IT界軟件工程師季林對大紀元記者說,科技本身並不存在好與壞,只有用的人才有好壞之分。科學的發展雖然給生活提供了便利,卻無法提升人類的道德。人類如果放縱自己的慾望,科學反而會帶來「不可挽回的災難」。 @

------------------
請訂閱新官方YouTube頻道:
https://bit.ly/2XxPrsd

✅立即支持訂閱:
https://hk.epochtimes.com/subscribe
✅直接贊助大紀元:
https://www.epochtimeshk.org/sponsors
✅成為我們的Patron:
https://www.patreon.com/epochtimeshk