(接上文)
利塔魯:因此,社交媒體把我們都推進一個陪審席內,實際上是把每個人都推到一個巨大的足球場,給每個人發一隻麥克風。這有點像開共和黨全國代表大會(RNC)和民主黨全國代表大會(DNC),你讓他們一起在同一個宴會廳裏。在現實生活中,我們會說,嘿,這真是個壞主意,沒有人想這樣做。在Twitter上,這正是正在發生的事情——政治上的所有這些激烈辯論。
同樣,不要忘了屏幕背後的那些算法,它們悄無聲息地優先推送決定我們看到的東西,這件事情非同小可,這些算法能夠看出我們的興奮點。你注意一下社交媒體,通常情況下,你不會只看到沒完沒了的小狗、獨角獸和曬幸福的影片。如果你不斷刷屏,你會看到一隻小狗在那裏,你可能會瞟上一眼影片,但僅此而已,你不打算參與其中。如果你看到某種東西,哦!這讓我興奮不已,你就會開始發表評論,你會把它轉發給別人,你會開始發表評論,它真會讓你興奮起來。而這反過來又會吸引人們。
所以,不經意間,即使你只是採取一個簡單的算法,給人們推送可能引起反應的東西,你會立即激發人們熱情。同樣,這些算法是如何運作的?我們無從得知。
我更喜歡按時間順序獲取所有內容的地方,因為這種方式,至少你會看到自然產生過程,而不是一些算法試圖找出你的興奮點,然後給你餵上讓你興奮的料。這一點也變得很重要,因為我們越來越多的線下活動,是在社交媒體上被組織起來的。
試想一下,就在今天,如果你要組織一場街頭抗議,你不會去發傳單,或發電子郵件,甚至不會拿起電話。通常情況下,你會把它發布在社交媒體上。其中哪些會廣泛傳播,哪些不會?這是因為人們對你的話題不感興趣,還是因為一些算法在干預?
去年在COVID早期階段,你會看到隨著呼籲重新開放的抗議活動的高漲,Facebook 發布了一項官方規定說,任何違反COVID當地規定的實體抗議活動,都將不允許在我們的平台上進行宣傳,我們將撤下活動廣告。如果該活動沒有明確要求戴口罩等等,都同樣適用。然後發生了喬治弗洛伊德(George Floyd)事件的抗議活動,他們悄悄地取消了這個限制,這變得非常耐人尋味,這又是一次偷偷摸摸的行為。他們沒有公開宣布說,我們相信這些抗議是重要的,所以我們要撤銷這個限制。
因此,這就是真正的挑戰。
這些規則每天都在變化,而我們不知道規則是甚麼。我的意思是,你怎麼能有這樣一個數碼社會,甚至你不知道其中的規則是甚麼?作為一名記者,我經常會問這些(科技)公司:「那麼,根據你們公布的這一規則,這個特定的表述,會不會違反你們的規則?」
我得到的答案百分之百總是這樣的:「我們不能對假設性的問題進行評論,貼出來,如果我們禁止你,就代表這個表述是不被允許的。」不能有一個這樣的數碼世界。
通過第《230條款》 數據庫 應提交給公眾監督
楊傑凱:這一點非常重要,方方面面都需要考慮到。我的意思是,你(在你的最新報告裏)提出了10個不同的(需要社交媒體公開的)數據庫,你認為這些數據庫應該提交給公眾監督;而且你還建議,管理人工智能及其決策的規則,也應該是透明的。
但問題是,通過何種機制,我們可以保證這些公司巨頭——這些權力巨大、前所未有的龐然大物——會真正告訴我們這些事情的真相?
利塔魯: 我認為,方法是通過(美國《通信規範法》)《第230條款》……。我們現在把它當成像是不可改變的東西。但是就如《性販賣法》(Sexual Trafficking Act),它被修正了。
因此可以想見,也可以修改《230條款》,也就是說,作為接受(《230條款》賦予的)所有這些權力、豁免權條件,你必須提供某些數據庫作為交換。
如果這些(10個要求披露的數據庫)被納入《230條款》,那麼它就具有法律效力,這樣他們將不得不公布這些數據庫。我認為真正重要的事情之一是,它(披露這些數據庫)就相當於是(社交媒體)把更明確的(言論審查)規則公布於眾。
如果你通讀Twitter、Facebook 或任何公司的規則,他們往往會說,如果你發布一些有害的東西,你會被禁止。甚麼是有害的?你如何定義它?而科技公司的答案總是,還是那句老話,你發布出來就會知道它(是否是被允許)的。我認為這才是真正的問題。
我還想補充一下,這種現象不單單存在於社交媒體,想想Uber(優步)、Airbnb(美國一家出租住宿民宿的網站)、Lyft(美國僅次於優步的第二大的叫車公司)。你今天使用的每一個平台,通常都有一個特別服務條款。勞拉盧默(Laura Loomer, 美國右翼活動人士,被多家媒體平台及服務平台取消),一個被Uber和Lyft取消了的活動家,倒不是因為盧默違反了他們(Uber等)的服務條款,而是因為(盧默發來)一條不相干的推文。想想這種事情,幾乎就跟中國(中共)的社會信用體系一模一樣。(中共)的社會信用體系是,你在這裏發表的言論,能給你在這裏的生活造成影響。
同樣,如果沒有這些清晰的指南(類似的事情還會發生更多)……。在(2017年特朗普總統的)就職典禮上,Airbnb取消了華盛頓地區的房間預訂,他們公布了相同的規則,說我們要取消仇恨組織活動。那麼,你如何定義仇恨組織呢?你可能會說三K黨就是,大家會一致同意,三K黨不能到華盛頓。但你怎麼劃定仇恨的界限?
任何使用微軟Office 360產品的人(可能知道),其中一個服務條款說,如果你使用他們的產品來製造仇恨言論,你將會被永久禁止使用微軟產品。我為此寫信給他們,我說,你們如何界定仇恨言論?你們對它的定義是甚麼?你們是否曾因此而禁止任何人使用?你們是否真正執行過這一政策?而回答同樣是默不作聲。
我認為這(仇恨言論)是一個至關重要的概念,我們有這些規則,但這些公司的規則不像法院。法院不會說,如果你幹壞事,你就會被逮捕,實際上法院只是羅列出了一個個(明晰的)法律條文。這(明晰的規則)正是我們在數碼世界中所缺乏的。
想想亨特拜登(拜登次子),《紐約郵報》(New York Post)有他的手提電腦醜聞的報道,我認為這是一個典型的例子。《紐約郵報》是一家實際運行的新聞實體,把一些新聞報道發布在社交媒體上,Facebook和Twitter一起說,這是有害信息,我們不會讓它公布。
Twitter一開始就說,這是有害的錯誤信息,而且是黑客材料,包含了(亨特拜登)個人信息。
至於Twitter為甚麼要禁止它的說法,每小時都在變。最後他們說,你知道嗎?我們不應該禁止這個(《紐約郵報》報道)。這很嚴重,我們犯了一個錯誤。
但那時總統大選已過,大局已定,這個新聞故事已經失去了意義。
主流媒體新聞報道被社交媒體禁止分享沒有明晰規則
請想一想這樣一個事實,一條主流媒體的新聞報道,被社交媒體禁止分享,而且原因不斷變化,我想一共變了四次。這就是當前的實際狀況,沒有一個明晰的規則……這就像警察逮捕你並說:「好吧,我們要指控你這個罪名。哦,對不起,對不起,實際上,不,我們要以這個罪名起訴。不對,對不起,是這個、這個,還有這個。」現在就是這種情況。我們需要有一個答案。
特別是在人工智能方面,隨著公司越來越多地轉向人工智能,其中一個有趣的事情是,我們視為「黑匣子」(black box,只知道輸入、輸出,中間過程不知道)的東西。但現在有一個領域叫做「可解釋的人工智能」(explainable AI),這是一個完整的研究領域,你構建這些人工智能算法,實際上你可以問它,當它產生一個答案時,實際上它會告訴你為甚麼要做出這個決定。
但是相反的,而當內容審查人是人類時,公司會說,我們不能為你提供解釋……,他們最常用的是下面兩種理由。
一個是,我們不能提供解釋,因為那會讓不良行為者了解如何繞過我們的規則。但是,這正是律師日常事務,這是律師存在的價值,作為一個透明法律制度的成本,我們能夠接受這一點。
但另一個答案是,他們會說,這太花錢了。如果一個內容審查人必須坐在那裏,花上10分鐘寫一個解釋,那對我們來說行不通。那麼我們為何不用人工智能,建立一個人工智能模型,可以給你解釋它為甚麼這樣做,這比人工服務花費更少。
運用人工智能可以消除成本太高了的爭論,而且,人工智能工具是一個新的研究領域,現在許多工作都在使用人工智能領域技術的成熟來協助,所以實在沒有理由說他們不能向你提供解釋。
這(使用人工智能)會幫了他們(社交媒體平台)的大忙。我一直說,對於科技公司而言,這也幫了他們,因為如果你是Twitter公司,每個推友都能得到一個解釋。(比如)今天推友們恰好看到,嘿,我關於「孟菲斯」的推文被刪了,我不知道是不是因為我提到了「孟菲斯」?或因為我提到了別的東西?但如果真正的原因是,因為你的推文提到了「孟菲斯」這個詞而被禁言,那「孟菲斯」就被確定為一個有害的詞,會對人們造成傷害。這樣至少對推友來說是個解釋。但最重要的是,對推友來說,他們至少知道,嘿,問題出現這兒。
但是,因為《紐約郵報》事件,我看到它讓Twitter公司狼狽不堪,他們不能一味地改變說辭。他們(內部)有這樣的紀錄,說明為甚麼要禁止它。
必須規定社交媒體公開數據庫作為透明度起點
楊傑凱:非常精彩。你說你想把一些東西納入法律之中,比如說,規定(社交媒體必須公開)10個數據庫,作為透明度起點,成為《230條款》修正案可能的一部份或類似的東西,對嗎?請給我們講一講——選幾個你認為最重要的數據庫談談,以及為甚麼這將帶來重大的變化?
利塔魯:10個數據庫中的一個,是他們的算法定向推送哪些內容的數據庫(Public algorithmic trending data sets)。
回顧過去,最著名(定向推送的)例子就是弗格森抗議活動(Ferguson protests,2014年8月9日美國密蘇里州聖路易斯縣弗格森,18歲的非裔美國青年邁克爾布朗被28歲的白人警員達倫威爾遜射殺,引發了當地大規模的抗議)。
在Twitter上,你到處可以看到弗格森抗議活動。在Facebook上,(你看不到弗格森抗議活動),你看到的(熱點)則是ALS冰桶挑戰活動,快樂的、面帶微笑的人把一桶冰水澆在他們的頭上。
這呈現的是兩個截然不同的世界,並不是因為上Facebook的人不關心弗格森事件,或者反之亦然。
這是因為這兩家社交媒體公司系統設計的不同。Facebook的算法決定,無論是通過算法還是人為干預,當時Facebook是優先推送快樂、微笑、友好的內容。
想一想,就在今天,比如說,有立法者提出了一個提案,但它成了啞炮,沒有人關心它,沒有人在社交媒體上談論它,沒有人討論它,他們沒有聽到任何選民的意見。
這可能使他們認為,好吧,這個政策提案可能不太有用。但(實際上)這很可能因為算法,算法決定這是一個糟糕的政策提案,並確保沒有人真正看到這個提案。
那麼,有了對數據庫到底推送哪些內容的這種透明度,我們(就可以看到)這些算法都給我們優先推送了哪些內容?上周,Facebook 的吹哨人說,Facebook的算法,不管是有意的還是無意的,都是為了讓我們怒火中燒、製造分裂。
當然,Facebook回應說,絕對不是,那完全是謊言。
現在的問題是,我們沒有數據,我們不能回答誰對誰錯。如果你真的有一個清單,上面有他們優先推送哪些內容?他們的算法都優先推送了些甚麼?在像Twitter這樣的公共平台上,這很容易看出來。你可以說在Facebook上,那裏有各種各樣的私隱問題。在Twitter上,反正一切都公開了,很容易就把這個問題提出來,讓它直接顯示出來優先推送內容。
建立被刪除和被免責的抗議帖子數據庫
我認為,還另有一個有趣的數據庫(被刪除和被免責的抗議帖子的數據庫,Database of deleted and exempted protest posts),你想想,當一個名人的推文被刪除,我們能在NewsMeter(印度的一家新聞媒體)上讀到它,因為他們有這個渠道,他們可以公開這件事。一個普通人確實沒有一個方便的渠道來獲得關注。因此,我們並不真正知道每天有多少內容被刪除。◇(未完待續)
------------------
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand