人工智能(AI)先驅Geoffrey Hinton周一(5月1日)證實,他上周離開了Google,讓他得以自由談論對這項技術的擔憂。

「我常這樣安慰自己:如果我不做,其他人也會做」,Hinton 接受《紐約時報》專訪時說,「但實在很難看出如何防止壞人利用它(AI)作惡。」

《紐約時報》率先報道了Hinton 離職的決定。他對該報說,他有些後悔一生所做的工作。

這位現年75歲的學者素有「AI教父」之稱,他在神經網絡、深度學習方面的開創性工作,塑造了當今AI系統。

Hinton為Google服務了10年,協助這家科技巨頭開發AI系統,但他最近對這項技術感到憂心。在周一的一條推文中,Hinton說,他離開Google是為了能自由談論AI的風險,並不是想批評Google。

「我離開是為了能談論人工智能的危險,不需考慮這對Google的影響」,Hinton在推文中說,「Google的行為非常負責任。」

Google首席科學家Jeff Dean說,辛頓「在AI方面取得了基礎性的突破」,並感謝他「對Google十年來的貢獻」。

「我們仍致力於以負責任的方式對待人工智能」,Dean一份聲明中說,「我們正不斷學習,了解新出現的風險,同時也在大膽創新。」

在Hinton決定退出Google之際,有越來越多的國會議員、業內人士和技術專家,對AI驅動的新一代聊天機械人提出警告。他們擔憂,生成性AI可能成為散播錯誤信息的工具,並嚴重衝擊就業市場。

目前,OpenAI、微軟和Google處於這一趨勢的最前沿,但IBM、亞馬遜、百度和騰訊也在開發類似的技術。

今年3月,許多科技界知名人士簽署了一封公開信,呼籲高級AI開發應至少暫停6個月,以制定、實施一套開發與設計先進AI的共享安全協議,否則可能對「社會和全人類構成深刻風險」。

這封信是由馬斯克(Elon Musk)支持的非牟利組織「生命未來研究所」(Future of Life Institute)所發表,其公布時間就在OpenAI公開了GPT-4之後的兩周。在早期測試和公司演示中,GPT-4被用來起草訴訟,通過標準化考試,並通過手繪草圖建立一個工作網站。

幾天後,擁有40年歷史的學術團體「人工智能促進協會」(AAAI)的19位現任、前任領導人也發布了公開信,警告AI的風險。

在接受《紐時》採訪時,Hinton表示,他擔心AI可能造成許多人失業,並使互聯網上充斥著虛假的照片、影片和文字,人們將「無法辨別真假」。

他還指出,AI驚人的進步速度,遠超出了他與其他專家的預期。隨著科技公司改進他們的AI系統,它們會變得越來越危險。

「過去只有一些人相信,這種東西實際上可變得比人更聰明」,Hinton說,「但大多數人認為這是不可能的。我也曾認為這是不可能的。我認為,那是30到50年甚至更長時間以後的事。很明顯,我不再這麼認為了。」

許多其他專家表示,這種威脅只是假設性的。但Hinton認為,Google、微軟以及其它公司之間的競爭,將升級為一場全球競賽,若沒有國際監管,這場競爭不會停止。

在離開Google之前,Hinton就曾公開談論過AI的潛在危害和好處。

在2021年,Hinton曾在孟買印度理工學院的畢業演講中說,AI將促進醫療保健,但同時也可能有助發展致命的自主武器。

Hinton並不是第一個對AI提出異議的Google員工。去年6月,該公司解僱了一名認定Google聊天機械人具備人格的工程師。

這位名叫Blake Lemoine工程師聲稱,代號為LaMDA的AI系統已獲得意識,Google則稱他違反了就業和數據安全政策。#

------------------
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column
💎Miss NTD選美大賽現正接受報名:
https://bit.ly/MissNTD

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column