隨著人工智能(AI)的迅速發展,它的應用範圍越來越廣。如果AI應用到好的領域,它可以造福人群,但如果它被壞人誤用,那就可能危害全人類。

以前聽起來像科幻小說的語音複製(voice cloning,或譯語音克隆),現在AI已經能輕易完成,而且被犯罪份子用來進行詐騙。針對此類犯罪行為,人們應該如何反制呢?

AI複製的語音被用來行騙

英國網絡銀行「椋鳥銀行」(Starling Bank)在9月發布的新聞稿中指出,歹徒現在能利用AI複製某人說話的聲音,而且只要有3秒鐘的音訊就能複製,例如從某人在網上發布的影片中擷取出來的語音。

他們隨後會查明某人的親友,並利用AI複製的語音經由電話或語音信箱進行詐騙,跟這些親友要錢。這種騙局可能會導致許多人受騙。

目前已有此類詐騙案例發生。該銀行針對英國成年人所進行的調查顯示,在過去一年來,有28%的受訪者曾遇到這種詐騙至少一次。然而,有46%的受訪者從未聽過這種詐騙,更不要說了解如何保護自己。

這項調查還發現,8%的受訪者說,他們會依據電話指示匯錢給對方,即使他們覺得這種電話很奇怪也是如此。

該銀行資訊安全總監葛拉漢(Lisa Grahame)說:「人們經常在網絡上發布包含自己的語音錄音的內容,卻沒有想到這會讓他們更容易受到詐騙份子的傷害。」

她說:「因此,重要的是人們要了解詐騙份子所採行的此類詐騙,以及如何保護自己和親人,不要成為受害者。」

甚麼是語音複製?

澳洲查理斯史都華大學(Charles Sturt University)警務研究資深講師阿斯萊特(Duane Aslett)等4名學者在The Conversation網站撰文說,科技的發展使犯罪份子更容易侵入人們的個人空間,所以謹慎使用科技產品比以往更重要。

這些學者指出,語音複製是一種深度偽造技術,可以從簡短的音訊樣本中擷取某人的口音、說話和呼吸方式,藉此複製其語音。音訊樣本只要有3秒鐘的長度就足以用來複製。

說話方式一旦取得,AI語音產生器就可以將人們輸入的文字轉換為類似於某人聲音的語音,而且非常逼真。

像「哈囉,有人在家嗎?」這樣簡短的句子就能用來複製語音,進行電話詐騙;而更長的對話可以讓詐騙份子獲得更多語音細節,讓複製的語音更加逼真。因此,除非你相信對方的身份,否則講電話時務必長話短說。

學者說,詐騙份子會利用AI複製的語音偽裝成名人、有關當局或一般民眾來進行電話詐騙。他們會營造迫切感,在取得受害者信任後要求對方以禮品卡、電匯或加密貨幣等方式給錢。

有不少語音複製詐騙已經登上媒體版面。舉例來說,先前有詐騙份子複製了阿聯酋(阿拉伯聯合酋長國)一家公司的協理之語音,騙取了3,500萬美元的巨款。

如何反制語音複製詐騙?

這些學者表示,個人和組織可以採取多種措施來防止語音複製技術的濫用。

首先,喚起社會大眾意識的活動和教育有助於保護個人和組織,減少此類詐騙的發生頻率。

第二,個人和組織應該考慮使用具有活體檢測功能的生物辨識技術。這是一種可以識別和驗證真人語音而不是假語音的新技術。使用語音辨識的組織應考慮採用多重要素驗證(multi-factor authentication),也就是使用兩種以上的驗證機制進行驗證,例如輸入密碼再加上比對指紋。

第三,執法機關應加強複製聲音的偵查能力。

最後,各國政府需要準確和更新的法規來管理相關風險。

這些學者總結說,網絡犯罪對一個國家的經濟影響甚鉅,所以公眾意識和強而有力的保障措施是很重要的。

他們說:「所有利害關係人——政府、公民和執法部門——都必須保持警戒並提高公眾意識,以降低受害風險。」◇

 

------------------

💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand