從去年12月到本月,歷時才2個多月,ChatGPT使用人數就從100萬爆增到1億,讓多家科技公司競相推出自己的AI。不過專家和人們擔心AI不停變強,不僅帶來學術倫理和改變人類工作型態等問題,甚至讓AI奇異點會提前到來,最終毀滅世界。
 
鑑於ChatGPT強大的生成文本能力,讓學術界開始擔心學生或不肖人士濫用ChatGPT進行作弊,因此這次Open AI將做新的檢測工具,希望遏制使用AI作弊和濫用的情況。

目前,紐約市、洛杉磯、西雅圖和其它大型公立學校已經明令禁止在校園內使用ChatGPT,教師們認為AI能夠根據命令編寫任何內容,會助長學術不誠實,並阻礙學生的學習能力。

OpenAI在1月底新聞稿中表示,新推出的「AI文本分類器」,可以偵測人們是否使用ChatGPT作弊,但分辨出「可能是AI編寫的文本」正確率只有26%,其中還有9%會誤認人類編寫的文本是AI編寫的,且還有字數上的限制。
 
這說明目前的AI文本分類器仍追不上ChatGPT帶來的變化。負責提高系統安全性的Open AI團隊負責人簡雷克(Jan Leike)表示,檢測AI書寫文本的方法並不完美,因為它有時會出錯。所以不要完全依賴它。 

ChatGPT學術倫理問題

Open AI的首席技術官米拉·穆拉蒂(Mira Murati)在2月初接受《時代》雜誌採訪時表示,AI確實正在改變人們的學習方式,但以下兩個真實的例子代表教育者們擔憂的事情正在發生,而非他們過度擔憂或者恐懼AI本身。
 
一個例子是,美國賓夕凡尼亞大學沃頓商學院教授克里斯蒂安·特維施(Christian Terwiesch)在去年12月曾利用ChatGPT加入他設計的「營運管理課程」考試當中,儘管AI在一些簡單的數學問題上出錯,但機械人取得B到B-不錯的成績。

最後,教授發表了一篇「ChatGPT會獲得沃頓商學院MBA學位嗎?」的文章,文章中討論有關於ChatGPT的一些問題,該篇文章也隨即引來轟動和討論。
 
另一個例子是,《華爾街日報》專欄作家喬安娜·斯特恩(Joanna Stern)曾利用ChatGPT幫她寫工作並發給老師,而老師給的工作分數在B到C範圍內,而這些工作在文章中的主題、條理、標點符號和句子結構等,都算得上清晰分明。
 
雖然老師告訴喬安娜,這些文章在內容上是「枯燥和缺乏活力」,言外之意就是文章缺乏人類的情感且單調。不過,以上這些缺陷和問題,只要ChatGPT不斷學習和增長,這些缺陷在未來可能會消失。
 
曾在麻省理工任教的美國語言學家阿夫拉姆·諾姆·喬姆斯基(Avram Noam Chomsky)曾在教育廚房(EduKitchen)頻道上表示,「多年來,一直有幫助教授檢測剽竊論文的程序,ChatGPT的出現讓檢測變得更難了,反而讓抄襲更容易了,這是我能想到它對教育的唯一貢獻了。」

他還表示, ChatGPT 成為「學生逃避學習的一種方式」,就像智能手機的興起,讓許多學生在課堂上,用手機和某人聊天,而不是專心上課聽講。

削弱人類創作能力和工作機會

除了上述的學術倫理問題之外,AI在圖形、程式界面設計等多方面「創作」和高速發展,讓不少人覺得AI正在削弱人類的創作能力,甚至可能取代一些人的工作內容。
 
因為Dall-E 2、Novel AI、Stability AI等藝術繪畫或圖片生成器,能在沒有圖片、藝術家和攝影師的情況下,僅依靠人們對圖畫的文字描述需求,快速生成一張人們需要花費幾小時到幾天才能繪畫出來的圖,且繪出的圖完全是「原創」不重複,但許多圖被發現模仿一些作者的風格,遭到藝術家強烈反對。
 
以前的應用程式(App)需要學習大量的代碼和程序邏輯,並花費一定的時間才能產出這些App。如今在有AI的情況下,只需給簡易的文字指令(非代碼),就能在數分鐘內做出界面設計系統或App,並達到立刻使用的目的。

上月底,有人讓ChatGPT參加Google的3級工程師的編碼面試,最終獲得年薪18.3萬美元的「工作」,該薪資則遠高於一般人。雖然等級3屬於初階工程師,但需要對程序編製有一定的了解,還要了解Google的運作方式,這意味ChatGPT編製程式的能力,至少有大學畢業的程度。

加州奧克蘭公立學校教授高中英語的盧波萊特·泰萊(LuPaulette Taylor)在2月10日對美國之音表示,人們都需要批判性思維、創造力,以及人們從某些情事中獲得學習時的好處,但現在ChatGPT 卻削弱人們這些能力。

各大科技公司爭相發展AI科技

許多科技公司發現ChatGPT能帶來商機後,競相推出自家的AI,希望搭上ChatGPT的順風車,讓AI能更快地投入市場應用,以便搶佔市場先機。同時希望改變現有的科技版圖,或取代Google在搜索市場上的龍頭地位。

微軟在2月7正式把旗下的Bing搜索引擎與聊天機械人結合,打造全新的搜索引擎「普羅米修斯」。雖然「普羅米修斯」對比ChatGPT目前無法回答有關時事的問題,但依靠Bing能獲取新聞、時事和產品價格表等多種最新訊息,還能提供答案或事物的相關連結,以證明答案的出處。
 
另外,Google在2月6日公布它的聊天機械人Bard,該機械人使用先前開發的LaMDA聊天機械人模型打造而成,但當天的一些失誤,導致Google股價下挫。對此,GoogleCEO桑達爾·皮查伊(Sundar Pichai )在網誌文中表示,預計未來會更加小心開發Bard和提高其標準,並開放更多它的代碼內容給其他人。
 
與此同時,中國的阿里巴巴、騰訊、小米、字節跳動、快手等多家科技公司,先後宣布要超越現在的ChatGPT,並展開布局行動。百度也在2月7日公布,今年3月份將完成「文心一言」的內測,向公共開放。

儘管百度希望將「文心一言」打造成下一個ChatGPT,但不少人並不看好中國的科技公司。其主要原因是,技術差距與中共無所不在的「敏感詞」審查,都會很大程度限制其發展。例如,中國杭州元語AI因言論審查,內部被大量設置「敏感詞」,導致最普通的正常對話也無法進行,最終遭到被下架的命運。

AI是否通過「圖靈測試」和產生「科技奇異點」?

雖然各大公司積極發展AI情況下,但「AI最終是否會誕生意識,並取代或毀滅人類」的問題,依舊是人類的終極話題。

AI研究專家和Google工程總監雷·庫茲威爾(Ray Kurzweil)2017年就曾認為,2029年AI 將通過「圖靈測試」並達到人類智能水平,2045年人類就會迎來「AI奇異點(科技奇異點)」。

若依照當前AI發展呈指數速度,代表出現「AI奇異點」時間,可能遠比庫茲威爾預計的還要更早,屆時可能會誕生出超級人工超級智能(ASI)。此前,史蒂芬霍金內的一些科學家皆認為ASI可能脫離人類掌控,最終會毀滅世界。

「奇異點」代表一個事物突然出現巨大的轉折點,例如:人類社會突然出現手機、電腦和網絡等。「圖靈測試」指測試機器是否能表現與人一樣的智力,且擁有自己的「意識」,能夠欺騙人類或對人類撒謊。

對此,在日本工作的電腦工程師張善力(化名)2月12日對大紀元說,「AI在很多方面已經遠遠超越人類,但人的神性一面,是機器不可能擁有和超越的。公司也檢討過ChatGPT,發現它容易說謊,在回答一些錯誤的答案時,依然表現得很有自信,這對於不了解事實的普通人來說,很容易被它誤導和欺騙。」

去年12月4日,馬斯克在推特上警告,「ChatGPT好得嚇人,而我們離危險且強大的AI不遠了」。 

另外,ChatGPT也曾寫下詳細的「毀滅人類計劃」和毀滅代碼,引發爭議。@ 

 

---------------------
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column
🗞紀紙:
https://bit.ly/EpochTimesHK_EpochPaper 

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column