中國正在進行「百模」大戰,但業界認為,人工智能大模型競爭即將「洗牌」,估計活下來的不多。在美國祭出AI晶片禁令之後,中國AI企業的前景將會如何?為此大紀元採訪了相關領域的專家。

近年來AI產品層出不窮,引發新一輪投資熱。擁有二十多年從業經驗的人工智能專家Jason Ma博士將AI大模型及其產品分為兩類,即專用型模型和通用型模型。

所謂專用型模型,比如Google Translation(Google翻譯)、Microsoft的Text-to-speech(文字轉聲音),可以專門實現某個功能。它基於AI深度學習的技術,完成非常專一的任務,這就是專用型的人工智能模型。

一些大語言模型,比如OpenAI公司開發的GPT3.5和GPT4,它可以完成所有跟語言相關的一切工作,包括全世界100種語言來回轉換,同時把人的語言轉成電腦語言,包括C語言、Python語言等等。同時,它可以寫作,做數學,編程,甚至有很多其它的腦力激盪(Brainstorm)。它就具備了一些通常的知識和能力,這就變成了一個通用型人工智能的概念。

「通用型的模型就像是一個通才。我想讓這個模型專門在醫療方面特別強,就用醫療領域的知識再去把那個模型優化一下,就像是人上完General Education(基礎教育)以後,再去學些專業知識,變成某個專業的人士。但是它還是基於這種通用模型的概念,只是稍微強化學習了某個方向,醫療方向或者說是法律方向等等。」Jason博士說。

他認為,與Google通過Search(搜索)獲取信息的途徑不同,ChatPGT是通過聊天、問答的方式提供用戶想要的信息。其實人類在出現互聯網之前,人和人之間的交往聊天能獲得信息量的70%。

生成性模型在模仿人腦

1997年,IBM的電腦「深藍」擊敗俄籍世界國際象棋冠軍加里‧卡斯帕羅夫。2016年,阿爾法圍棋(AlphaGo)擊敗圍棋世界冠軍、職業九段棋手李世石,以4比1的總比分獲勝。

Jason介紹說,圍棋是人類最最複雜的一個遊戲,幾年前AlphaGo用的技術還是老一代的技術,通常都是深度學習,加上強化學習。像ChatGPT這些生成文字、圖像、影片、音樂的等等生成性模型,是基於2017年一個新的深度神經網絡結構Transformer(變換器),模仿人大腦的很多部份在做事情。

「從大語言模型的概念來說,現在最好的模型是OpenAI的GPT4,它把幾乎整個Internet(互聯網)的內容放到模型裏訓練,另外,它的模型尺寸很大,大概有數以千億的參數。換句話說,GPT4模型的複雜度已經接近人腦的程度。」

他舉例說,人臉識別是老一代的人工智能,就是專用型的人工智能。它是基於一個神經元的深度學習的網絡,然後專門建立一個人臉識別的技術。無人駕駛也用到了專用型的人工智能,但是它需要一個比較複雜、多模態的一種狀態,各種Sensor(感應器)、Autopilot(自動駕駛儀)等等。

「如果把人工智能想像成一個大腦的話,其實這種自動駕駛其實就是一個人在駕駛,所以它不光是要有大腦,還要有眼睛(錄像頭,Camera),要有手控制等等一系列其它輔助的功能。當然大腦是其中比較核心控制的部份。」

晶片對於中國AI企業的影響

2022年10月以來,美國不斷收緊對華人工智能晶片出口限制。為了應諾拜登政府對人工智能晶片的重大限制,一年前英偉達為中國市場設計了晶片A800和H800,它們的運行速度較慢,但仍可被中國公司用於訓練人工智能模型。但去年美國商務部的新規也限制了此類晶片的銷售,要求所有達到一定總處理性能或性能密度的硬件都必須獲得出口許可。

有一種說法是,中低端的GPU晶片造出來,它可以用堆疊GPU晶片和GPU服務器的方式來實現高端晶片的速度。

對此,Jason表示,在大語言模型或者人工智能模型領域中,它通常的特點就是,越通用的智能,越強有力的智能,那麼模型就越來越複雜。它的訓練過程就要求計算量非常大,訓練數據非常大,同時在使用過程中它要求的內存也很大,運算量也很大,這些都要求晶片要有很強大的計算能力。

「比如說原來一個高端的GPU卡有24G內存,那麼一個低端的只有12G,而且計算量比較慢,那我這機子就插四個卡,共同實現一個高端的卡的功能,你可以做到這一點,當然整體運作起來就還不是那麼有效。中國很多學校也都按這樣的方法在走的,因為它資金也不是很夠,買晶片也很難,它就用多個中檔的卡拼出一個能用的工作環境。」

「所以對AI這個領域,晶片的控制力不是那麼強,只是在研究機構、創造模型的那些機構裏頭,訓練的時候難度增加,訓練時間增加。但是訓練和應用是兩回事,訓練的時候要很大的計算量,要很高級的晶片,但是在實際應用的時候,很可能那個模型在一般的手機上都可以運行。晶片對於華為的制約力,要比晶片在AI方面對於中國(中共)的制約力要更強一些。」

世界知名人工智能專家李開復近日接受科技媒體The Information採訪時表示,晶片庫存足夠使用18個月。這些晶片基本上是在限制措施出台前購買的。「我們肯定在努力研究如何使用中國晶片,但這並不容易。對它們進行編程不是我們所熟悉的領域。」

Jason告訴記者說,「現有的軟件都是基於英偉達晶片做的,很多的技術分享、論文都是基於這個晶片寫的,中國在國內開發,做人工智能訓練的晶片,得要自己從頭實現人家論文的想法,轉成當地的這個晶片的程序,然後才能Run(運行),這個過程中有可能犯錯,有大的工作量。想法人家的論文已經說了,但是他得自己實現一遍。」

台灣國防安全研究院戰略與資源研究所所長蘇紫雲在接受大紀元採訪時表示,人工智能的核心是兩條腿,就是軟硬件。軟件就是用大數據的學習分析,這部份中國的一些企業其實做得不錯,中共的體制給了他們人工智能比較方便的發展環境,政府可以調動所有的數據庫相互參照使用;硬件就涉及到先進晶片的生產,既然晶片進入個位數的納米境界,算力跟耗能都會拉開距離。

他說,「的確可以使用低端的GPU,可以把它想像成是中國古代的算盤。CPU(中央處理器)是指揮者,GPU(圖像處理器)是算盤,所以GPU越多當然就可以輔助人工智能的運算。它可以用低端的GPU堆疊,繼續做相關人工智能的運作跟發展,可是其實變成非常的沒有效率。

「我們用個比較具體的比照來看,如果用先進晶片可能是一個小房間的電腦就行了,那如果用低端的GPU那可能要整個大廈都塞滿了才行,所以這就等於把中國鎖在真空管的時代,其它國家已經進入電晶體(Transistor)時代了,所以中國可以有限度的發展,可是會被其它國家遠遠甩在後面。如果把這種設備裝在機動的軍事裝備上面,那麼體積太龐大的設備就無法運用到機動的戰機、導彈或者是船艦上。所以算力由硬件決定,那硬件的尺寸大小會決定它最後的應用場景。」

(未完待續)#

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column