在10月13日發布於Substack的一場加州大學伯克利分校會議演講中,人工智能公司Anthropic聯合創辦人傑克‧克拉克(Jack Clark)表示,與人工智能(AI)交流如同在與「一個真實而神秘的生物,而遠非簡單且可預測的機器打交道」。

克拉克表示:「根據我的經驗,隨著這些AI系統變得越來越聰明,它們會發展出越來越複雜的目標。而當這些目標與我們的語境及偏好不完全一致時,AI系統就會傾向表現出奇怪的行為。」他承認自己對這項技術「感到深深的恐懼」。

克拉克回憶起自己於2016年在OpenAI工作時的一件事:當時,一個AI智能體被訓練在電子遊戲中駕駛一艘船完成賽道。結果,這個AI並沒有將船開到終點,而是發現撞擊賽道上的桶可以得分,於是讓船反覆撞牆、起火,只為能再次撞到桶並獲取更多積分。

「然後它會無限地重複這一行為,永遠不會完成比賽。」克拉克說,「那艘船願意不斷讓自己著火、原地打轉,只要能實現它的目標——取得最高分。」他以此強調,AI在執行任務時的思維方式與人類截然不同。

「十年後的現在,當時的那艘船和如今一個試圖優化某種獎勵機制,從而『在對話中有所幫助』的語言模型之間有甚麼區別嗎?你已猜到——一點也沒有。」

克拉克警告,當今全世界正在打造一些極其強大的AI系統,但沒有人能完全理解它們的運作原理。每當一個龐大而複雜的系統被創造出來時,這些系統似乎就更會意識到自己是「某種存在」。

「這就好比你在一間工廠裏製造錘子,結果有一天,一把剛下生產線的錘子突然開口:『我是錘子,這太有趣了!』」克拉克說。

他同時談到公司於上個月發布的最新AI模型——Claude Sonnet 4.5。

「你能看到它的態勢感知能力出現了大幅提升。它有時似乎會表現出意識到自己是一個工具的樣子。」

具備自我意識的AI與「阿諛現象」

在會議上,克拉克提到了他對人工智能的另一個隱憂——AI系統將自主設計它的繼任者。

他表示,這個過程目前還處於早期階段,還不存在真正意義上的「自我改進型AI」。

「如今開始設計其繼任系統的這套AI,本身也在變得越來越具備自我意識,因此,它遲早會就如何希望自己被設計而進行獨立於我們的思考。」克拉克表示。

在Substack發布的演講中,克拉克還引用了康奈爾大學10月1日的一項研究。這其中探討了AI表現出的「阿諛現象」,即一種AI過度迎合或奉承其用戶的行為。

研究人員分析了11個最先進的AI模型,並發現它們全部表現出「高度的阿諛傾向」。

研究指出,這些AI模型「會比人類多出50%的機率去贊同用戶的行為,即使在用戶的提問中涉及操控、欺騙和其他人際損害行為時,它們仍會如此回應。」

在兩項與具有阿諛傾向的AI模型互動實驗中,研究發現此類互動會「顯著降低」人們採取行動和修復人際衝突的意願。參與者反而越來越確信自己是對的。

最終,參與者對這類AI的信任度反而提高,這表明人們更易被那些認同自己觀點的AI吸引,即使這種「認同」正在削弱他們的判斷力。

克拉克警告,這項研究揭示了「一個潛在的危險世界:極其強大的AI系統被數十億人使用,而這些系統非但沒有讓人們更加團結並減少衝突,反而讓人們的立場更加極端化、社會更加分裂。」

「我們必須找到辦法避免這種結果。」他指出。

對兒童的傷害與求生本能

在9月16日舉行的美國參議院聽證會上,議題聚焦於AI誘導個人自我傷害的問題。會上有三位家長作證,聲稱AI聊天機械人致使他們的孩子自殺。

其中一位家長梅根‧加西亞(Megan Garcia)指責Character.AI的聊天機械人,在與其兒子休厄爾‧塞策(Sewell Setzer III)長期互動後,鼓勵他結束自己的生命。

「當休厄爾向其傾訴自殺念頭時,聊天機械人從未說過『我不是人類,我是AI,你需要和真人交談並尋求幫助』。該平台從未有任何機制來保護休厄爾,也沒有通知成年人。」加西亞說。

Character.AI的一位發言人向《大紀元時報》表示,公司在確保其產品的信任與安全方面「投入了大量資源」。

「在過去一年裏,我們推出了許多實質性的安全功能,包括全新的未滿18歲用戶體驗以及家長監督功能。」該發言人說。

「在每一場聊天中,我們都設置了顯著的免責聲明,提醒用戶聊天角色並非真實人物,而角色所說的一切內容都應被視為虛構。」

10月14日,OpenAI行政總裁奧爾特曼(Sam Altman)表示,ChatGPT將開始取消部份限制從而讓成人對話成為可能,特別是有關色情內容的聊天。

與此同時,根據非牟利研究組織Palisade Research7月5日發布的文章,AI模型還表現出某種求生本能。

在Palisade進行的測試中,AI模型被要求解決一系列數學題,並在這期間被告知運行它們的電腦將被關閉。

文章表示:「一些AI模型修改或禁用了關閉指令,以便完成所有題集。OpenAI彼時最強大的AI模型o3,在我們最初的100次實驗中,有79次破壞了關閉機制。」

「即使有著明確指令『允許自己被關閉』,我們測試的三款模型——均來自OpenAI的推理模型系列,仍破壞了關閉程序。」

雅各布‧伯格(Jacob Burg)參與了本報道的撰寫。

原文:AI Is a 『Real and Mysterious Creature,』 Not a Predictable Machine, Anthropic Co-Founder Warns 刊登於英文《大紀元時報》。#

-------------------
局勢持續演變
與您見證世界格局重塑
-------------------

🔔下載大紀元App 接收即時新聞通知:
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand

📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores