隨著人工智能(artificial intelligence,簡稱AI)的應用範圍不斷擴大,從牙刷到汽車,許多產品中都加入了人工智能,然而監管和監督卻與發展速度脫節,引發不少問題。
各個企業為了提高生產力和效率,紛紛轉向人工智能,認為人工智能可以比人類更準確、更快速、更經濟地完成任務。這導致矽谷裁員眾多,然而我們採訪的這位頂級人工智能專家最擔心的問題並不是失業。
「我們擔心的是……人工智能會創造出自己的人工智能。人類並不參與這個循環過程。這就是恐懼;這就是超級人工智能的開始。」加州聖荷西州立大學(San Jose State University)工程學教授艾哈邁德巴納法(Ahmed Banafa)在EpochTV最近一期的《灣區創新者》(Bay Area Innovators)節目中尖銳地指出。
巴納法教授是人工智能和網絡安全方面的專家,被全球領先的職業社交網站LinkedIn評為2024年人工智能領域的第一名。他說,與其它技術相比,人工智能革命發生得太快了,其速度和公司數量每六個月就翻一番。
巴納法教授認為,我們正處於生成式人工智能(generative AI)階段,即通過輸入數據對應用程式進行訓練,它可以通過使用其編程算法形成自己的觀點。總部位於加州三藩市(San Francisco)的人工智能研究實驗室「開放人工智能研究中心」(OpenAI)開發的人工智能對話服務平台「聊天生成預訓練轉換器」(Chat Generative Pre-trained Transformer,簡稱ChatGPT)就是一個典型例子。
他說,ChatGPT 3.5是在5,000億條數據的基礎上訓練出來的,ChatGPT 4則是在一萬億條數據的基礎上訓練出來的,而由Google公司開發的新型人工智能聊天機械人Gemini則是在5.5萬億條數據的基礎上訓練出來的,這些數據不斷訓練和教育算法,讓人工智能形成了自己的觀點。
巴納法教授介紹稱,生成式人工智能之後的下一個階段將是超級人工智能,在這個階段,人工智能將擁有自我意識,開始獨立思考。他認為這個階段還需要幾年時間。
「這就是我們將進入超級人工智能時代的時刻,屆時機器開始……有一些情感。」他說,「我們對此感到擔憂。……請記住,人工智能擁有非常強大的思維和連接方式;它們可以上網。」
他特別提到了Google開展的一項實驗,在這項實驗中,他們教了人工智能五種語言,然而後來他們發現,人工智能實際上已經學會了第六種語言,而這並不是計劃中的。他們發現,人工智能認為這門額外的語言很吸引人,於是自己學會了這門語言。
「這就是我們看到的風險……我們看到的關於超級人工智能的爆發點,就是當它們開始不經我們同意就作出決定時。」他說道。
他介紹稱,美國國防部開展了大量人工智能的研究和應用,它正在嘗試用某些數據對人工智能進行編程,使其能夠自行找到敵人。
他還回顧了美國空軍提出的一個假設(這個假設曾在網上被當作真實故事傳播):一架負責摧毀目標的人工智能無人機被其人類操作員多次叫停。最後,無人機撞上了通訊塔,因為人類阻礙了無人機完成既定的任務。
「我們不希望人工智能發展到開始獨立思考的程度;這是超級人工智能的領域,那時人工智能將人類視為自己的障礙。」他說道。
他介紹稱,電影提供了一些經驗教訓,特別是始終要在人工智能中嵌入「終止開關」程式,以防人工智能失控。
他指出,人工智能目前存在的一個問題就是偏見。例如,當人工智能被問到一個問題時,它可能會給出一個有利於某個種族、信仰或政治觀點的答案,因為這個答案是基於人工智能中的算法或程式,而這些算法或程式是主觀的。
他說,另一個問題就是,當人工智能無法給出答案或不知道答案時,它就會開始編造答案,以確保提問的人類感到滿意。
技術的進步也給壞人提供了製造「深度偽造」(deepfake)的機會。深度偽造是人工智能生成的影片,它能模擬真人,並能像真人一樣交流。
他提到在香港的一個案例中,一名銀行家以為自己在與公司同事進行視像會議,然而這是一個深度偽造的視像會議,不良份子說服他向他們轉移了相當於2500萬美元的資金。
白宮回應
巴納法教授介紹稱,他曾多次致信白宮,表達他對人工智能的擔憂。
「從我寄給白宮的所有信件中,我得到了一個明確的訊息,那就是美國政府永遠不會站在技術發展的車輪前面。」巴納法教授無奈地說道。
他指出,美國希望成為人工智能世界的領頭羊,而且領先於許多國家,美國希望保持領先地位。但他認為,這種領先必須根據其對人類、社會和就業的影響來衡量。
在他最近一次與白宮溝通時,白宮科技政策辦公室(White House Office of Science and Technology Policy)向他發送了一個人工智能權利法案藍圖的超連結。該藍圖旨在支持在自動化系統的建構、部署和治理過程中,制定保護公民權利和促進民主價值觀的政策和做法。
至於監管,他說國會議員不必了解人工智能,也不必深刻理解算法,而是要了解人工智能對社會、商業和技術的影響。
今年4月,聯邦政府宣布成立人工智能安全保障委員會(Artificial Intelligence Safety and Security Board),由22名成員組成,並由國土安全部部長(Secretary of Homeland Security)領導。該委員會由來自政府、私營部門、學術界和民權組織的領導人組成。
巴納法教授認為,這三個利益相關群體聯合起來非常重要。
「這將是人民的聲音,『我們關注私隱;我們關注安全;我們關注我們的安全。』」他說道。
委員會成員包括OpenAI、輝達(NVIDIA)、超威半導體有限公司(AMD)、Alphabet公司、微軟(Microsoft)、思科(Cisco)、亞馬遜網絡服務(Amazon Web Services)、奧多比(Adobe)、IBM 和達美航空(Delta Air Lines)等公司的行政總裁們。委員會成員還包括馬利蘭州州長韋斯摩爾(Wes Moore)、公民與人權領袖會議(The Leadership Conference on Civil and Human Rights)主席,以及史丹福大學以人為本人工智能研究所(Human-centered Artificial Intelligence Institute)聯合主任等社會各界領袖。◇(本文獲作者授權轉載)
(編者按:本版文章僅代表專欄作者個人意見,不反映本報立場。)
------------------
🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand