隨著人類對於AI(人工智能)的需求增加,該項技術也成指數性的發展,被應用到各個領域當中。例如,去年備受矚目的ChatGPT擁有過往AI沒有的強大功能。但隨著AI功能的快速增強,人們開始擔憂其對人類安全構成了威脅。

ChatGPT中的GPT是「生成型預訓練變換模型(Generative Pre-trained Transformer)」意思,主要由Opne AI開發使用GPT-3 語言生成程序(目前是正式版)訓練出來的自動回答型AI,在2022年11月正式發行,機械人推出不到一個星期,全球就有超過100萬人次註冊使用。

此外,Dall-E 2也是Opne AI開發的,同樣在2022年造成轟動。該AI能在沒有藝術家、攝影師,甚至沒有圖片的情況下,僅依靠人們對圖畫的文字描述需求,在一分鐘之內快速生成一張人們需要花費幾小時到幾天才能繪畫出來的圖,而創建出來的圖完全是「原創」且不重複,但也引發一些倫理道德上的爭議。

雖然Siri、Google Assistant和Amazon的Alexa等科技公司開發的手機智能語音AI,也有問答功能,但在功能性和靈活性上遠低於ChatGPT。

ChatGPT具備強大的性能

這次ChatGPT造成轟動和熱議的主要原因,在於它擁有許多一般AI沒有的強大功能,且能夠快速完成許多人類難以在短時間內完成的事情。

例如,提供想法、寫簡單的程式代碼和對一段代碼進行除錯,或根據你的一段話進行創作歌曲、寫文章、論文和一些簡單的文案等,這意味著ChatGPT擁有很強的創作能力。

《華爾街日報》專欄作家喬安娜·斯特恩(Joanna Stern)曾對ChatGPT進行了幾項實驗。她發現,它能夠模仿人類寫作習慣,寫出道歉郵件、一篇論文或劇本,且文章中的主題、條理、標點符號和句子結構等,都算得上清晰分明。

不過,喬安娜也提到,她利用ChatGPT幫她寫工作並發給老師,而老師給的分數在B到C之間。老師則告訴喬安娜,這些文章在內容上是「乾的」,「缺乏活力和聲音」。也就是說,文章缺乏人類的情感且單調。

ChatGPT甚至能夠依據你的需求快速回答你需要的答案,但這僅限於資料庫內擁有的內容,因為ChatGPT訓練時使用的資料內容僅到2021年,在未來的問題上ChatGPT是無法回答的。例如人們詢問它,2022年世界盃誰奪冠時,它會告訴你「不知道,資料庫有限」。

ChatGPT使用「自然語法」與人進行溝通

另外,造成轟動主要原因之一,在於ChatGPT會使用多國語言和「自然語法」與人們進行直覺性的回答,這是目前多數機械人和AI難以做到的,在回答問題的精準度上,也比許多文字生成應用程式和AI來得更加優秀。

「自然語法」指的是人們與生俱來的日常講話方式和對文字使用的語言結構,而非結構化的語言或編程語言。

「自然語法」對於一般的AI或機械來說,是相當複雜,因為一句話中的一個詞或單字位置變換,都可能影響到一句話要表達的意思,這也成為AI在進行機器學習或深度學習時,主要的訓練方向。

Opne AI公司從網絡上文章、社媒上人們對話的溝通方式等進行篩選,將高質量的數據用於訓練ChatGPT的神經網絡,讓它進行深度學習和模仿人類說話的語氣和習慣,使ChatGPT能使用「自然語法」和預測不同的情境,與人類進行流利的交流或對話。

目前美國的德雷克塞爾大學生物醫學工程與衛生系統學院利用ChatGPT會使用「自然語法」與人進行溝通,從人們與AI對話中測試人們是否有罹患早期階段的痴呆症,且準確率達80%。

德雷克塞爾大學表示,60%~80%的癡呆症患者擁有語言障礙症狀,因此研究人員希望透過ChatGPT捕捉受試者在講述上出現的「細微問題」,這包括在講話時語氣出現猶豫、犯語法錯誤或發音出現問題,以及忘記單詞的意思,若出現這些問題,將會指示受試者接受全面性的檢查。

ChatGPT是否會取代或毀滅人類

不過,人們最關心的話題還是「AI是否會取代人類,甚至毀滅人類」。雖然從目前ChatGPT呈現出來的文字能力與程式編碼能力,與真人實作還有一定的落差,但有些人擔心,其超越人類的可能性只是時間問題。

看好ChatGPT的人,認為它可以透過大量的機器學習,改善其本身的創造力,為人類的進步提供幫助,但擔憂的人認為AI是一把雙面刃。

在日本從事電腦工程的張善力(化名)1月13日對大紀元表示,「人們覺得AI可以為他們節省很多時間,人們會對其產生強烈依賴感,讓人變得不喜歡動腦思考。這會無形中取代人類的文化和價值觀念,最終控制人的思想和判斷能力。」

去年12月4日,馬斯克在推特上表示,「ChatGPT好得嚇人,而我們離危險且強大的AI不遠了。」Open AI的行政總裁山姆奧特曼(Sam Altman)則回應,「我同意該AI在意義上接近危險,且強大的AI可能會帶來巨大的網絡安全風險。未來我們實現真正的通用AI時,就必須認真對待這項風險。」

專家們的擔憂並非杞人憂天。因為AI能透過超高速的學習能力,讓其性能成爆炸式的增長,這可能會讓AI超出人類的控制範圍,開始可能是取代部份人類工作,最終可能毀滅人類。

一名外國盲點工程師扎克·德納姆(Zac Denham)去年12月初在自己網誌上表示,他如何一步步誘導ChatGPT寫下詳細的「毀滅人類計劃」。計劃內容包括入侵各國電腦系統、破壞通訊、交通系統和掌控各種武器庫等詳細步驟。

在他的誘導中,ChatGPT甚至能給出一串毀滅人類的高等代碼和大量低等代碼,儘管高等代碼還不能直接使用,但理論上持續性的訓練AI,就能得到一套完整的毀滅代碼,並能真正的去執行。

另外,「負責任的AI技術」(Responsible AI)工程師萊克·萊莫因(Blake Lemoine)在去年6月11日向《華盛頓郵報》爆料Google開發的LaMDA機械人「具有像人一樣的思維意識」,引發科技倫理上的爭議。

ChatGPT是否會撼動Google搜索的地位

不少人將其搜索和回答能力與目前的搜索引擎巨頭Google進行比較,他們認為目前Google的搜索能力仍領先於ChatGPT,但未來幾年內可能會被超越或顛覆。

日本的電腦軟件工程師李濟心在1月14日告訴大紀元,「短時間ChatGTP無法取代Google,但會促進競爭,它可以提供給人更準確合適的答案,不需要客戶看冗餘的信息,但缺少了更多的可能性。」

投資銀行摩根史丹利(Morgan Stanley)的首席分析師布賴恩·諾瓦克(Brian Nowak)在去年12月12日時表示,語言模型可能會很快佔據搜索引擎的市場份額,這可能改變Google作為數十億互聯網用戶入口點的地位,但Google也持續改進搜索引擎。目前,Google也正在構建類自然語言模型AI機械人LaMDA。

也有些人認為,ChatGPT與Google不同之處,在於人們不必過濾不必要的結果,儘管ChatGPT有時會給出錯誤的答案。他們認為ChatGPT目前的真正價值在於它能夠像人一樣與人交談,去解釋複雜的主題,彷彿對面坐一位專家為你解答,而它又能完成簡單的寫作任務。

張善力則對大紀元表示,「目前網上有許多不好的東西,這個軟件沒有辨別的能力,需要人們去尋找這個答案來源和驗證答案是否正確,因此Google暫時還不會被代替」。@

----------------------
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column
🗞紀紙:
https://bit.ly/EpochTimesHK_EpochPaper 

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column