2025年,我們見證了一個嶄新的未來以雷霆之勢降臨。人工智能(artificial intelligence,簡稱AI)從新奇事物蛻變為不可或缺的存在。
總部位於加州三藩市的OpenAI開發的AI機械人Sora,可以根據文本提示創建逼真的影片。語音助手的語調越發流暢,情感開始滲入字裏行間,彷彿與真人無異,令人不禁心生寒意。從客戶服務到內容創作的整個工作流程,全數交由一年前還不存在的系統接管。
我們目睹了對此人們產生的各種複雜情感:憤怒的烈焰、恐懼的陰影、迷醉般的好奇,以及隨之而來的倦怠等。名人們為AI生成的深度偽造影片憤然抗議。藝術家們因作品未經授權就被當作訓練數據提起訴訟。作家們爭論著作權是否正走向消亡。專家們甚至預言人類或將步入滅絕。許多人憂心職位不保,而另一些人則驚歎於機器能夠創作音樂、編寫劇本、回答問題,其精巧程度幾乎與人類歷經艱辛才產出的原創作品無異。
不過,2026年不太可能帶來更多震撼。隨著技術發持續進步,它將變得越來越不易察覺,人們將逐漸接受它。AI將變得司空見慣。那些曾經令我們驚歎的系統將逐漸退到背景之中,因為越來越多的人會依賴它們卻渾然不覺。「這是人創造的嗎?」這個問題,也將逐漸淡出人們的意識。
儘管為滿足人工智能的需求,無止境的「創新」(innovation)和增長仍在不斷推動數據中心的興建,並加劇能源短缺,但在文化層面,我們正處於一個轉折點:從蔚為奇觀邁向日常同化。那些曾經令我們目眩神迷的工具,終將成為環境的一部份,無聲無息地融入日常。
這種轉變不僅體現在內容方面,也體現在監控方面。在企業環境中,用來追蹤員工行為、標記風險並優化工作流程的「老闆軟件」(bossware)將會普及。這種轉變不會被詳細解釋,許多人也不會質疑,因為它以「提升效率」的名義悄然導入。一些員工會抵制,但是大多數人甚至不會察覺。
尤其對於年輕一代來說,被監視的概念已不再像對我們這些老一輩人那樣令人感到威脅。對他們而言,這感覺很正常,甚至是必要的。他們從小就習慣於追蹤自己的步數、情緒和位置。他們會為了安全起見,與朋友分享位置訊息。對他們來說,可見性並非監視,而是一種設計上的必要性。
老一輩人的感受則不同。他們懷念獨處的時光,懷念離線的感覺。正在消失的不僅是私隱本身,還有對私隱的記憶。
伴隨這些變化而來的還有一種更微妙的變化:原創的消失。
如今,普通人每天都在消費各種內容,卻往往不知道這些內容是誰或由甚麼機構創作或生成的。曾經被稱為「人工智能內容」(AI content)的東西,現在就只是普通的內容。它的來源不再令人關注,「生成」(generated)內容和「創作」(created)內容之間的界限也正在迅速模糊。
危險不在於欺騙,而在於冷漠。當人造文化(synthetic culture)與人類文化(human culture)難分彼此,而無人介意時,人類的本質就喪失了。
2026年的人工智能之所以重要——並非因為它會引發新一輪的公共輿論風暴,而是因為它不會。工具已經就緒,系統已經訓練完成,數據也已收集完畢。而我們卻已經開始將文化習慣和判斷力移交給那些既不了解文化存在的意義,也不明白判斷為何重要的系統。
縱觀歷史,人類文化的形成不僅取決於知識和工具,更取決於意義,取決於對善惡、正義和神聖事物的認知。從這個意義上講,道德不僅僅是規則或行為準則,它更是一種世界觀,一盞指路明燈。它提供了一種結構和紀律,提醒我們生活並非僅僅關乎生產力或績效。
但是人工智能並不認同這種世界觀。它不理解界限,不維護尊嚴,也無法選擇克制。它對神秘事物毫無敬畏之心,也缺乏道德想像力。它只是進行優化、模擬和預測——常常使用聽起來像人類語言的表達方式,卻完全不理解其含義。那份親切只是偽裝,其下的代碼冷漠無情。
我們越是接受它的邏輯,就越有可能失去我們自己的邏輯。
儘管人們擔憂人工智能正過度主導人類社會,但更大的危機在於,實際上根本無人真正掌控它。其程序代碼(code)和演算法(algorithms)早已遠遠超出任何人類程式員的預測能力範圍,都無法保證其安全或提供任何防護措施。而那些因為這些系統展現出如此令人信服的自信而信賴它們的普通使用者,正逐漸遺忘這些系統背後缺乏更高層次的道德準則驅動——無論是人類或非人類的道德準則。
然而,在這悲觀的表象之下,一股充滿人性與希望的趨勢正在萌芽。隨著人工智能系統的擴張,人們開始逐步抽身。他們不再那麼熱衷於參與網絡世界的資訊洪流,減少了發布內容和參與互動。「零發布」(Posting Zero)一詞應運而生,用來描述數百萬人正悄然進行的舉動:退出公共舞台,重拾個人私隱。這個趨勢令大型科技公司感到惶恐,但是人們正在用網絡沉默地投下關鍵一票。
我們還看到越來越多的家長限制孩子使用電子產品的時間,教育工作者設定界限,一些政府也開始規範科技平台一直拒絕監管的內容。這或許是未來一年文化轉變中最令人鼓舞的跡象。它表明,即使身處演算法主導的時代,人們仍然會對人性特質有所回應。他們仍然知道那種感覺,即使他們不知道該如何表達。
2026年,要想保持人性,並非要否定人工智能;而是要銘記它無法做到的事。它不會感受痛苦。它無法寬恕他人。它無法出於愛、悲憫或敬畏而創造事物。它無法講述源於記憶的故事。它無法選擇沉默。它無法靜下心來。它更無法尋求救贖。
未來一年最重要的決定,不會由平台或政策制定者來做出,而是取決於我們如何支配時間、關注甚麼事物,以及我們選擇保留甚麼和傳承甚麼。
重新奪回那片空間,本身就是一種敬畏的表現——是提醒自己:我們屬於比自身更廣大、更深邃的存在。人類所有的知識——以及所有機器學習——在生命真正的浩瀚真諦面前,都不過是滄海一粟。當存在本身的豐盈展現時,足以令任何敢於深入探究的人類心生敬畏、感到謙卑。而無論那些我們尚未理解的究竟是甚麼,我們可以確信一點:在我們理解之前,沒有任何機器能理解這些未知領域。#
作者簡介:Kay Rubacek 是一位屢獲殊榮的教育家、電影製作人、作家和播客主持人。她因人權倡導工作於2001年一度被關押在中國監獄,此後一直致力於揭露那些貶損人類生命和主權的制度和意識形態。自2010年以來,她一直是《大紀元時報》的撰稿人。
原文:Beware Growing Apathy Toward AI in 2026刊登於英文《大紀元時報》。
本文僅代表作者本人觀點,並不一定反映《大紀元時報》立場。
--------------
記得那一天
也繼續過好每一天
--------------
📌 2025大事回顧👇🏻
https://hk.epochtimes.com/tag/回顧2025
🔔下載大紀元App 接收即時新聞通知:
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand
📰周末版實體報銷售點👇🏻
http://epochtimeshk.org/stores


















