四位知情人士向路透社表示,當Google正向全球推廣其人工智能(AI)聊天機械人產品Bard之际,其母公司Alphabet就使用AI聊天機械人的問題向自己的員工發出了新的警告。

據路透社報道,知情人士表示,Google母公司警告員工,在與人工智能聊天機械人進行交流時,不要輸入公司的任何機密信息。Google公司證實了這一消息,並援引了其長期以來的信息保護政策。

所謂AI聊天機械人,其中包括Google推出的Bard和OpenAI的ChatGPT,是指可以像人類一樣進行交流的人工智能程序。它們使用了被稱為生成性人工智能的技術與用戶進行對話,並可以回答涉及廣泛的提問。

Google公司的評審員在閱讀AI聊天記錄時發現,類似的人工智能機械人可以在與人聊天時,複製並展示它在訓練期間所獲得的敏感數據,從而產生機密信息洩漏風險。

一些知情人士表示,Alphabet公司還提醒其工程師,避免直接使用聊天機械人生成的電腦代碼。

當被問及對此有何評論時,該公司表示,Bard可能會提出一些不受歡迎的代碼建議,但它仍然會對程序員有所幫助。Google還表示,它的目標是公開其技術的侷限性。

這些擔憂表明,Google希望避免在與ChatGPT競爭時發布的軟件對其業務造成損害。Google與推出了ChatGPT的OpenAI和微軟之間的競爭,關係到數以十億計美元的投資,以及來自新人工智能程序的廣告和雲收入。

Google的謹慎態度還反映出了一種正在成為企業安全標準的做法,即警告員工不要使用對公眾開放可用的AI聊天機械人。

包括三星、亞馬遜和德意志銀行等公司分別向路透社表示,全球越來越多的企業已經針對人工智能聊天機械人設置了「防護欄」。

據社交網站Fishball針對近1.2萬名受訪者進行的民意調查顯示,截至今年1月,大約有43%的專業人士在使用ChatGPT或其它人工智能工具,而且往往不會告訴他們自己的老闆。這些受訪者均來自美國頂級公司。

據知情人士表示,今年2月,Google公司告訴員工在發布之前對Bard進行測試,不要向這個人工智能機械人透露內部信息。現在,在Google正向超過180個國家和逾40種語言推出人工智能聊天機械人Bard之際,它對內部員工的警告又延伸到了禁用它寫出的代碼。

Google公司告訴路透社,它已經與愛爾蘭數據保護委員會進行了詳細的對話,並且正在處理監管機構提出的問題。

據美國「政治家」網站(Politico)周二(6月13日)報道稱,Google將推遲Bard在歐盟的發布,以期獲得更多的、有關該聊天機械人對私隱影響的信息。

對洩露敏感信息的擔憂

目前,這種人工智能技術已經可以獨立起草電子郵件、文檔,甚至編寫軟件代碼,無疑,它可以幫助人們大大加快完成任務的速度。然而,在人工智能所創建的這些內容中,很可能會包括錯誤資訊、敏感數據,甚至是《哈利‧波特》小說中受版權保護的段落。

Google公司在6月1日更新的私隱通知還強調:「不要在你與Bard的對話中使用機密或敏感信息。」

一些公司已經開發了特別的軟件,以期解決這些問題。例如,保護網站免受網絡攻擊並提供其它雲端服務的Cloudflare公司,正在營銷一種為企業標記和限制數據向外部流動的工具。

Google和微軟也在向企業客戶提供特別的人工智能會話工具。這些工具價格更高,但不會將敏感數據吸收到公共人工智能模型中。Bard和ChatGPT中的默認設置,都是將保存用戶的會話歷史記錄。當然,用戶也可以選擇刪除該記錄。

微軟消費者首席營銷官Yusuf Mehdi表示,公司不希望員工在工作中使用公共聊天機械人的做法是「有道理的」。

邁赫迪還解釋了微軟免費的Bing聊天機械人與其企業級軟件的區別。他說:「企業級軟件採取了更為保守的立場。在那裏,我們的政策要嚴格得多。」

微軟拒絕就其是否全面禁止員工向公共人工智能程序(包括自己的程序)輸入機密信息的問題發表評論,不過該公司另一位高管對路透社(Reuters)表示,他個人限制了自己的使用。

Cloudflare公司的行政總裁Matthew Prince說,在聊天機械人中輸入機密信息就像「讓一群博士生隨意瀏覽你所有的私人記錄一樣。」#

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column

------------------

💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand