人工智能(AI)先驅Geoffrey Hinton周一(5月1日)證實,他上周離開了Google,讓他得以自由談論對這項技術的擔憂。

「我常這樣安慰自己:如果我不做,其他人也會做」,Hinton 接受《紐約時報》專訪時說,「但實在很難看出如何防止壞人利用它(AI)作惡。」

《紐約時報》率先報道了Hinton 離職的決定。他對該報說,他有些後悔一生所做的工作。

這位現年75歲的學者素有「AI教父」之稱,他在神經網絡、深度學習方面的開創性工作,塑造了當今AI系統。

Hinton為Google服務了10年,協助這家科技巨頭開發AI系統,但他最近對這項技術感到憂心。在周一的一條推文中,Hinton說,他離開Google是為了能自由談論AI的風險,並不是想批評Google。

「我離開是為了能談論人工智能的危險,不需考慮這對Google的影響」,Hinton在推文中說,「Google的行為非常負責任。」

Google首席科學家Jeff Dean說,辛頓「在AI方面取得了基礎性的突破」,並感謝他「對Google十年來的貢獻」。

「我們仍致力於以負責任的方式對待人工智能」,Dean一份聲明中說,「我們正不斷學習,了解新出現的風險,同時也在大膽創新。」

在Hinton決定退出Google之際,有越來越多的國會議員、業內人士和技術專家,對AI驅動的新一代聊天機械人提出警告。他們擔憂,生成性AI可能成為散播錯誤訊息的工具,並嚴重衝擊就業市場。

目前,OpenAI、微軟和Google處於這一趨勢的最前沿,但IBM、亞馬遜、百度和騰訊也在開發類似的技術。

今年3月,許多科技界知名人士簽署了一封公開信,呼籲高級AI開發應至少暫停6個月,以制定、實施一套開發與設計先進AI的共享安全協議,否則可能對「社會和全人類構成深刻風險」。

在接受《紐時》採訪時,Hinton表示,他擔心AI可能造成許多人失業,並使互聯網上充斥著虛假的照片、影片和文字,人們將「無法辨別真假」。

他還指出,AI驚人的進步速度,遠超出了他與其他專家的預期。隨著科技公司改進他們的AI系統,它們會變得越來越危險。

「過去只有一些人相信,這種東西實際上可變得比人更聰明」,Hinton說,「但大多數人認為這是不可能的。我也曾認為這是不可能的。我認為,那是30到50年甚至更長時間以後的事。很明顯,我不再這麼認為了。」

許多其他專家表示,這種威脅只是假設性的。但Hinton認為,Google、微軟以及其它公司之間的競爭,將升級為一場全球競賽,若沒有國際監管,這場競爭不會停止。

在離開Google之前,Hinton就曾公開談論過AI的潛在危害和好處。

在2021年,Hinton曾在孟買印度理工學院的畢業演講中說,AI將促進醫療保健,但同時也可能有助發展致命的自主武器。

Hinton並不是第一個對AI提出異議的Google員工。去年6月,該公司解僱了一名認定Google聊天機械人具備人格的工程師。

這位名叫Blake Lemoine工程師聲稱,代號為LaMDA的AI系統已獲得意識,Google則稱他違反了就業和數據安全政策。◇

------------------

⏪️ 回顧2024專題報道👇🏻
https://hk.epochtimes.com/tag/回顧2024

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand