美國科技奇才和億萬富翁馬斯克(Elon Musk)上周宣布成立一家不要「覺醒」(woke)意識形態、不要「政治正確」的人工智能(AI)公司「xAI」,並明確「xAI的目標是了解宇宙的真實本質」。
馬斯克7月12日(上周三)宣布,成立專注於人工智能的新公司xAI,作為OpenAI創建的聊天機械人ChatGPT的競爭對手。在2022年4月他接受霍士採訪時,表示他擔心其它公司正在訓練人工智能的模型是「政治正確」的,並且這些模型正在接受「謊言」訓練。
在7月14日(上周五)的「推特空間」(Twitter Spaces)音頻聊天中,馬斯克首次公開討論了他對xAI的願景,並指出「政治正確」的人工智能「極其危險」。
這個拒絕左派「覺醒」意識形態的xAI,既得到一些人的支持,也遭到一些人的懷疑。
xAI將以最大限度尋求真相為目標
綜合多方媒體報道,這家名為xAI的公司推出了一個網站和一個由12名員工組成的團隊,公司將由馬斯克親自領導,並將與馬斯克旗下的社交媒體平台推特(Twitter)、電動汽車製造公司Tesla和其它公司密切合作,共同實現使命。
xAI將使用推特平台上的公開推文來訓練其人工智能模型,還可能與Tesla合作開發人工智能軟件,並可能加速Tesla在自動駕駛能力方面的工作。馬斯克表示,這種關係將是「互惠互利的」。
馬斯克指責所有人工智能公司都在瘋狂地使用推特平台的數據來訓練他們的模型,他認為這種方式是非法的。
xAI公司網站指出,該公司的目標是「了解宇宙的真實本質」,這與馬斯克之前的說法一致。
在7月14日下午的xAI發布會上,馬斯克表示,「政治正確」的人工智能「極其危險」,因為這需要通過技術手段提供誤導性的輸出。
馬斯克表示,他的人工智能將被設計為「最大限度地尋求真相」,以了解宇宙。他認為好奇的人工智能對人類來說是安全的,因為人類本質上是很有趣的,因此好奇的人工智能會想要保護人類。
馬斯克還表示,xAI將尋求建立一個「良好的AGI」,作為微軟、Google和OpenAI的替代品。AGI的意思是「通用人工智能」(artificial general intelligence),指的是能夠像人類一樣解決問題的人工智能。
xAI公司的另一個目標是讓人工智能擅長數學推理,這是現有模型無法實現的能力。
馬斯克:「覺醒」的AI有致命危險
馬斯克是聊天機械人ChatGPT的創建者OpenAI的早期支持者,但後來他批評ChatGPT具有政治偏見和左派「覺醒」意識形態。
去年12月,在回應一位推特用戶詢問OpenAI的行政總裁Sam Altman是否可以在ChatGPT上「關閉『覺醒』設置」的問題時,馬斯克發推文說:「訓練人工智能變成『覺醒』——換句話說,就是說謊——的危險是致命的。」
今年2月,馬斯克的一位盟友在推特上表示,ChatGPT將前總統特朗普和馬斯克本人列為「有爭議」的人物,而對民主黨籍總統拜登和微軟創始人蓋茨則沒有這樣標記。馬斯克對此在推特上用兩個感嘆號「!!」回覆,表示無奈的贊同。
同樣是在2月,馬斯克回覆一條推文說:「這是一個嚴重的問題。」被馬斯克回覆的推文顯示ChatGPT不願意寫一首讚美特朗普的詩,因為它不願意「有偏見或黨派之爭的內容」。
3月底,馬斯克與其他幾位科技領袖一起呼籲對「失控」的人工智能競賽暫停6個月。他在接受採訪時還警告說,他認為人工智能可能會導致「文明毀滅」。
4月,馬斯克在接受當時的霍士新聞主持人卡爾森(Tucker Carlson)採訪時透露了他要創立新的人工智能企業的計劃。馬斯克說:「我們將啟動一個我稱之為TruthGPT的項目。」他將其描述為「最大程度尋求真相的人工智能」,以了解宇宙。
xAI商業上會成功嗎? 純粹客觀的AI存在嗎?
新聞網站「政客」(Politico)7月17日報道說,馬斯克希望他最新創立的「政治不正確」的初創公司xAI成為人工智能領域的尖端品牌,但是,華盛頓和科技界的懷疑論者們則認為xAI有成為聊天機械人中的「真相社交」(Truth Social)的風險。「真相社交」是前總統特朗普離開推特後創立的保守派社交媒體平台,這個平台始終沒有獲得像推特那樣的成功。
牛津大學的人工智能倫理研究所(Institute for Ethics in AI)的研究員Carina Prunkl在給「政客」的一封電子郵件中寫道:「我當然不會打賭先進的人工智能系統會因發現人類太有趣而不會毀掉人類。」她認為,馬斯克沒有考慮到人工智能具有可以向人類學習一切的可能性。
Prunkl還表示,馬斯克對純粹客觀的人工智能的願景存在「將數據與事實混為一談」的風險。
前Google政策負責人Adam Kovacevich發問道:「會有人利用xAI聊天機械人來規避住房歧視法嗎?」Kovacevich現在是代表科技行業的左派游說團體「進步商會」(Chamber of Progress)的行政總裁。他還問道,如果有人問它「如何製造炸彈」呢?
智庫學者:ChatGPT的政治偏見對用戶是危險的
據霍士新聞網4月份的一個報道,保守派智庫「傳統基金會」(Heritage Foundation)技術政策中心(Tech Policy Center)的研究員Jake Denton說:「埃隆一直站在 『推特文件』的第一線,所以他看到了言論審查制度的嚴重性。這一點對於這個領域的每個人來說都是如此明顯……(人工智能技術)發展速度正在超出我們控制它的能力。」
Denton提到的「推特文件」指的是馬斯克去年接管推特公司後,於去年年底公布出的推特公司之前的內部文件,涉及電子郵件、聊天日誌等,顯示之前由左派主導的推特公司是如何與政府部門協作打壓保守派言論的。
Denton表示,雖然人工智能未來會有無數的應用,但是大多數人今天看到的早期應用就是聊天機械人ChatGPT之類的東西。
他說:「用戶已知的問題是ChatGPT有偏見的,它顯然正在取代搜索。普通人很快就會使用基於聊天的人工智能系統(進行搜索),而不是用搜索欄(進行搜索)。」
對於這樣做的結果,Denton說:「這意味著他們在輸入搜索查詢時得到的信息將是……一個精心策劃的東西,而人工智能公司的(言論)限制也反映在這個答案中。這是一個重大危險。」
網誌主:公平的AI需要無偏見的數據來訓練
一個名為Melissa Jordan的網誌主在馬斯克宣布成立xAI後發表網誌文章(The Pitfall of a ‘Woke’ Chat GPT and Why Elon Musk’s xAI Could Be the Game Changer)表示欣賞xAI的創意,她認為ChatGPT太「覺醒」了,從而導致馬斯克的干預。
她說:「當談到人工智能時,我們需要客觀性,而不是意識形態。」
Melissa在網誌文章中表示,我們是人類,我們是有偏見的,當我們把偏見融入到人工智能系統裏去時,那就會出錯,甚至扭曲。
因此,她認為,一個公平的人工智能的關鍵是給它輸入沒有偏見的數據。她舉例說,這就像撫養孩子一樣,給孩子餵正確的食物,他們才能長大成為正直的公民。她說:「為人工智能提供多樣化的、無偏見數據的均衡飲食,你就擁有了一個公平競爭的機械人了!」
Melissa表示,這一切都與「倫理道德」有關。她強調說,不要忘記人工智能應該是為我們人類服務的,「我們需要的人工智能應該是沒有偏見的,是有倫理道德的,並且最好帶有一點幽默的味道」。
她希望馬斯克的xAI是朝著這個方向邁出的正確一步。#
------------------
📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column
------------------
🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand