中共正在招募31名「最聰明」的高中生,讓他們接受培訓,成為研發人工智能(AI)武器殺手的全球最年輕AI武器科學家。此舉引發國際爭議擔憂。

AI武器,一些人稱作「殺手機械人」(killer robots),通常指的是致命的自主武器,可以在沒有人類參與的情況下,選擇和銷毀人類目標。因背後涉及的道德問題,這種武器一直備受爭議。

《南華早報》報道,被選入北京理工大學(BIT)人工智能武器實驗班的31名高中生均不滿18歲,是從5000多名候選人中選出。

根據中共國防部網站的信息,BIT隸屬於國防科學技術工業委員會,是中共建政以來重點建設的高校之一,也是首批進入「211工程」和「985工程」建設行列的高校之一。其前身是創辦於1940年的延安自然科學院,是中國共產黨創辦的第一所理工科大學。BIT是中共國防科學技術研究的重要基地之一,也是中共高級武器研究機構之一。

報道稱,通過選拔的學生不僅要頭腦聰明,「愛國水平」也是重要的考察標準。

「這些孩子都異常聰明,但光聰明還不夠,」一名參與篩選的北理大教授透露,這些孩子還要有其它的品質如「創造性思維、勇於鬥爭,面臨挑戰不退縮」,開發新武器的熱情也是必須的,他們還必須是「愛國者」。

根據該項目手冊,每位學生將被分配兩名資深武器科學家,其中一人擁有學術背景,另一人則來自國防業領域。

在完成4年課程後,研究所希望這些學生將會繼續博士課程,最終成為中國人工智能武器工程的下一代領軍人物。

《南華早報》說,中共正在致力於開發致命的人工智能應用,從裝有自學能力晶片的核潛艇到可以爬入人體血管的微型機械人。

中共培養未成年學生研究AI武器惹擔憂

中國是聯合國中支持禁止致命自主武器系統的26個國家之一。中共官媒《環球時報》網站在今年9月曾發文稱,中共還呼籲制定一項新的常規武器公約,「禁止使用完全自主的武器系統」。

如今,中共通過BIT大學招募高中生研究AI武器的舉動,令國際專家學者對中共在自主武器的真正立場表示懷疑。

麻省理工的特馬克(Max Tegmark)教授指出,中國是支持聯合國禁止致命的自主武器系統的第一個大國,如果BIT大學的這個高中生項目開發這種武器,那將是一個恥辱。

《南華早報》援引位於紐約的聯合國大學政策研究中心新興網絡技術學者鮑威爾斯(Eleonore Pauwels)的話說,她對中共的這個項目表示擔憂:「這是全球首個大學項目,旨在積極地,戰略性地鼓動下一代去思考、設計並將AI用於軍事科研和使用。」

中共這一項目似乎更側重於培訓下一代學生將AI武器化,鮑威爾斯說,這極度令人不安。學生將設計AI作為一種學習的動力或者是將能自學的、智能的和自動化系統武器化。

鮑威爾斯說,這些知識還可以與其它新的現有技術如生物技術,量子計算,納米技術和機械人技術結合使用,這將「對安全和軍事霸權產生重大影響」。「機械人蜂群能夠在食品和生物技術供應鏈中輸送有害毒素。」

鮑威爾斯認為,通過這些課程,學生們開始思考將AI和遺傳學系統相結合來設計和部署強大的武器組合,這些武器可以如手術般精準地瞄準特定群體。

「(它)也可能導致新形式的戰爭,從高度複雜的自動化網絡攻擊到所謂的『戰爭物聯網』(internet of Battle Things),其中一系列機械人和傳感器在防禦、進攻和情報收集中發揮作用。」

中共AI國家戰略建立在軍民融合理論基礎上

《南華早報》說,事實上,AI為中共提供了一個新的安全武器庫。其目標是將技術進步作為實現其成為全球領導者目標的一種方式。

更引人注意的是,鮑威爾斯說,「事實上,中國(共)的AI國家戰略是建立在軍民融合理論的基礎上,這意味著一個軍事用途的AI原型機可以被用在民用環境中進行監視或製造傷害」。

加州大學伯克利分校智能系統中心主任拉塞爾(Stuart Russell)將中共的BIT大學項目描述為「一個非常糟糕的想法」。

「永遠都不應該允許機器來決定殺人。這樣的武器很快成為大規模殺傷性武器。而且,它們也增加了戰爭的可能性。」 拉塞爾說,「追求致命性自主武器的開發,將會嚴重危害到國際、國家、地方及個人的安全。」

他補充說,希望所有這些中國學生在開始課程之前觀看「殺手機械人」(Slaughterbots)影片。

該影片描繪了一個令人不安的未來,成群的低成本無人機可以藉助人工智能技術,如面部識別來屠殺人類。《科技新報》說,影片中的迷你機械人功能具備常見的內建相機、感應器及臉部辨識功能,它還裝了3克重的成型炸藥(shaped explosive)。這個殺手機械人瞬間飛向展示用的假人、執行臉部辨識、扣下扳機,只用不到3秒的時間就完成這項刺殺任務。

全球AI專家聯署呼籲禁止開發致命自主武器

事實上,全球很多科學家對於發展「有思考能力的殺人機器」(即AI武器)可能給世界帶來毀滅性災難深感憂懼。專家強調,所有機械人武器應該具有「有意義的人類控制」水平。

據「生命未來研究所」(Future of Life Institute)報道,就在今年7月,來自全球的AI專家們聯合簽署了一份《致命性自主武器宣言》,承諾「既不參與也不支持致命自主武器的開發,製造,交易或使用」。

「致命性自主武器宣言」截圖。(「生命未來研究所」網站)
「致命性自主武器宣言」截圖。(「生命未來研究所」網站)

簽署者包括來自36個國家的160多個AI相關公司和組織,以及來自90個國家的2400名專家,包括谷歌DeepMind、倫敦大學學院、SpaceX的創辦者馬斯克等。

這次活動由「生命未來研究所」主席、麻省理工教授特馬克發起。他說:「自主決定殺人的AI武器就像生化武器一樣令人厭惡和不安,我們應該以對待生化武器的方式來處理自主武器。」

該宣言的另外一位關鍵組織者、悉尼新南威爾士大學人工智能科學教授瓦爾斯(Toby Walsh)指出了這一自主武器背後存在的道德問題。他說,掌控人類個體生死的決定權,決不能交給機器。它們不具備這樣的道德。

美國之音說,北京理工大學的智能武器系統實驗班的設立也許是中共不會放棄「中國製造2025」的一個例證。

------------------

🏵️《九評》20周年
https://hk.epochtimes.com/category/專題/退黨大潮

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand