詐騙手法新高度 

上周網上流傳一條影片,片中香港特首李家超推介高投資回報計劃,聲稱投資一個應用程式獲得豐厚利潤並可以免稅。政府指影片是AI偽造並全心詐騙,已轉交警方調查,呼籲市民切勿輕信類似的投資廣告或推廣影片云云。李家超聲音及影象被AI利用並非新鮮事物,YouTube上就有不少,單憑聽聲音及觀看畫面難辨真偽。李家超是受美國制裁的人物,被騙徒用作推銷投資騙局,只能證明騙徒在網上容易取得其個人特徵,製作成本非常低,且行騙目標是那些長期處於被極權資訊封鎖的地區,盲目信從權威的人。其實形象聲音被盜用的又豈只李家超一人,利用人工智能生產的假資訊已經達到泛濫的地步。打開Facebook,經常就彈出財金官員社會名人介紹投資秘技的廣告。台灣大選,賴清德私生子報告、《蔡英文秘史》等假資訊意圖影響選情,有證據指這些都是AI生產然後利用新建立的社交媒體帳戶發佈。在外國,AI欺凌走進校園,學生利用同學照片製作不雅照。又有騙徒懂得利用AI模仿親屬聲音向家人勒索。2024是世界大選之年,全球由四十多個國家舉行大選, 覆蓋超過30億人,極權國家必定大舉利用AI製造虛假及誤導性資訊,破壞民主選舉。

(Freepik)
(Freepik)
 

生成式AI工具爆發 

上周2024世界經濟論壇在倫敦舉行媒體會,發佈了未來兩年的全球風險報告。虛假和誤導性訊息被列為對世界最大的短期威脅,而人工智能是造成這些風險的首要因素之一。如何核實資訊及建立信任成為一大難題。事實上自從一年多前AI開放給大眾,網上湧現大量AI工具。一般用家主要接觸是有問必答的對話模型,還未領略到這些工具已經進化到令人驚訝的程度。其實只要到互聯網搜尋一下,馬上可找到這些工具,有模仿真人語音,有製作圖片及影片,有閱讀及整理文件,有專門寫作故事,有協助編寫程式。生成式AI(Generative AI)更是爆炸式增長,這類工具利用語言輸入指令,由AI完成任務。一些以往需要專業操作及繁複的工序變得輕而易舉。例如圖像修改,只要輸入語言指令,就可將照片內特定人物的衣著改變甚至拿走,又可改變背景,加減物件,將未完成的圖像延伸,完全可以做到無中生有,一般人更難以分別出圖像有否動了手腳。對擁有資金的企業及政權,當然還有更高級的深偽技術(Deepfake)。認識這些工具有好處,一來用作提升學習及工作效率,二來是加強邏輯思考。當你了解這些工具如何運作,便可推斷使用這些工具的行騙手法。 

查找來源利用邏輯思考 

面對利用AI詐騙新時代,如何應對?筆者有幾個建議。首先查核資料來源,做多少查核視乎對這篇資訊有多倚賴。假資訊的特點是需要快速散播,所以主要靠社交媒體及影片平台。是凡資料來自這些渠道,或忽然在媒體彈出的皆屬高風險。收到這裏訊息應在網上查找有否其他可信來源。查核發出帳戶的歷史資料,如屬新設立不久,追蹤者寥寥可數,或只有偏面讃好等,都是危險訊號。來自其他源頭的資訊或圖片,可在網上查核,影片則可擷取關鍵訊息,然後在網上再查找確認。如果是一篇文章,網上工具例如GPTZero,評核可能使用AI的分數。亦可留意用詞有否包含極權慣用的詞彙或特殊的意識形態修辭。例如所謂《蔡英文秘史》就用中共用語「朝鮮戰爭」而非「韓戰」。如果是圖片,網上工具例如Potoforensic可以幫助找出疑似修改的地方。請記著「你不會知道發送訊息者的真實身份」,任何要求你採取行動的訊息必須另找方法核實對方身份。筆者建議與親朋設定危急通訊協定,當收到親朋緊急訊息,即使聲音及影像是與你認識的人無異,就應啓動協定核實身份。順帶一提,小心保護你的生物資訊,包括聲音及影像圖片,是非必要不應發送聲音檔案,因為你不知道對方如何處理。將圖像及個人影片放在社交媒體應非常審慎,可考慮利用加密雲端連結分享。個人影片及圖像應儲存放在手機上鎖的檔案夾內。 

工具帶來方便,被用作非法用途是生態一部份,無可避免。面對Al工具大潮,自保方法是不斷學習,認識這些工具,加強邏輯思考。◇

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column