由非營利人工智能研究公司OpenAI建立的一種新語言模型正在醞釀一場風暴,據悉該模型能夠寫出極具說服力的文字,讓開發者擔心這一工具會被人濫用。

OpenAI表示,這種自然語言模型GPT-2被培訓從40千兆互聯網文本樣本中猜測下一個單詞是甚麼,這種培訓的結果是:系統能夠就某個話題「寫出」真實連貫的文字,和前一版模型相比,新版在連貫性和一致性上獲得了極大的改善。

但是,隨著系統的在一些應用上展現出良好的結果,例如能夠更好地對話以及更好地識別語音,該組織也發現了潛在的問題,例如這個工具可以用來生成假新聞,在網絡上冒充真人,或在社交媒體上自動發出欺辱性評論。

出於這個原因,OpenAI表示,將只發佈了一個縮水版的語言模型,並且表示,預計鑒於安全問題可能在未來將減少發佈新的版本。

當然,OpenAI對此決定並不太肯定, 「相信AI社區經過深思熟慮,最終將解決某些研究領域的發佈規範問題」。

這一決定激怒了社區中一些人,指責該公司欲撕毀其不封閉期研究的承諾。其他人則更加寬容,稱此舉樹立起一個「道德標準」,在可能的濫用之前防範於未然。

OpenAI的政策主管Jack Clar表示,該公司的要務是避免「惡意或濫用該技術」,又說「很難在應用和濫用之間搞好平衡」。

OpenAI資助者之一馬斯克(Elon Musk)最近陷入了這一爭議,在一條推文中他證實自己「沒有參與該公司已超過一年」,並且,他已與OpenAI友好地分道揚鑣。

OpenAI表示,發佈GPT-2的決定尚未作出,並將於六個月內重新審視。與此同時,公司表示,政府「應考慮採取措施,更系統地監控人工智能技術的社會影響,並衡量此類系統在能力上的進步」。

美國情報界警告說,人工智能等領域對美國國家安全至關重要,包括量子計算和無人駕駛車輛。近日,特朗普總統簽署了推動美國人工智能研究的行政命令。◇