AI 時代的媒體識讀與認知防衛理論
AI 時代的媒體識讀與認知防衛理論
第一章 緒論(Introduction)
1.1 研究背景與問題意識
在數位媒體、社群平台與生成式人工智慧快速發展的背景下,公共論述的生產與流通方式發生了根本轉變。資訊數量的爆炸性成長,並未帶來相應程度的公共理解深化,反而使得真假判斷、責任歸屬與理性辯論愈發困難。
傳統上,資訊風險多被理解為假新聞、錯誤資訊或蓄意說謊。然而,近年公共論述中的核心問題,已逐漸轉向一種更具結構性、卻更難辨識的現象:語言生產者對真相本身的漠視。大量論述看似中性、理性、專業,卻缺乏可驗證性、可追問性與可修正性。
本文將此現象置於 Harry Frankfurt 所提出之「鬼扯淡(bullshit)」概念框架中,並進一步指出,在生成式 AI 與政治審查機制的共同作用下,扯淡已從個人行為擴展為一種制度化、技術化的公共語言型態。
1.2 研究目的與核心問題
本文旨在回答以下三個核心問題:
- 為何「鬼扯淡」相較於說謊,對民主社會的公共理性具有更深層的破壞性?
- 生成式人工智慧與平台治理如何放大、穩定化此類語言型態?
- 在政治審查或自我審查環境下,公民應如何重建有效的媒體識讀與認知防衛能力?
說謊者仍然以真相為參照點──即使是否定或扭曲;而扯淡者則對真相本身漠不關心,其唯一目標是製造效果。當語言評價的標準,從「是否為真」轉向「是否安全、是否有效、是否不冒犯」,扯淡便成為最具制度理性的選擇:它無須承擔錯誤的責任,也不必回應反駁,卻能長期佔據話語空間並獲得正向回饋。
詐騙則是扯淡的極端化形態。其核心並不在於謊言內容的可信度,而在於系統性地繞過人的判斷流程——透過製造時間壓力、操控情緒波動與放大資訊不對稱,使個體喪失驗證真偽的能力。當判斷機制被劫持,真相是否存在,已不再構成決策的必要條件。
1.3 研究方法與文章結構
本文採取理論整合與概念分析方法,跨越哲學、政治理論、媒體研究與 AI 治理文獻。全文結構如下:
- 第一章:緒論
- 第二章:文獻回顧(已完成)
- 第三章:扯淡作為結構性語言現象
- 第四章:政治審查與公共論述的去風險化
- 第五章:生成式 AI 與「安全化語言」的制度效果
- 第六章:詐騙手法作為認知攻擊的極端樣本
- 第七章:AI 時代的認知防衛理論
- 第八章:結論與理論意涵
第二章 文獻回顧(Literature Review)
本研究位於哲學、媒體研究、政治理論與人工智慧治理的交會處,其問題意識建立在四條主要文獻脈絡之上:(一)真相、說謊與「鬼扯」的哲學分析;(二)公共理性與民主論述理論;(三)媒體識讀、資訊操弄與政治傳播;(四)生成式人工智慧與平台審查對公共語言的影響。
2.1 真相、說謊與鬼扯:從倫理問題到認知結構
Harry Frankfurt(2005)在其經典著作 On Bullshit 中,首次系統性區分「說謊(lying)」與「鬼扯淡(bullshit)」的概念。Frankfurt 指出,說謊者仍以真相為參照座標,其行為是對真相的扭曲或否認;相對地,鬼扯者對真相本身漠不關心,其語言行為僅以效果為導向。
此一區分的重要性在於:
說謊破壞的是特定事實,
而鬼扯破壞的是「真相作為價值」的地位。
後續研究者(如 Cohen, 2002;Cassam, 2019)進一步指出,鬼扯現象與現代社會的認知懶惰、權威依附與敘事政治密切相關,其影響層次不僅是道德失範,更涉及公共理性(public reason)的退化。
本研究延續 Frankfurt 的分析,但將其推進至制度與技術層級,探討當扯淡與媒體結構、政治審查及 AI 語言生成結合時,其破壞力如何被系統性放大。
2.2 公共理性與政治論述:可驗證性的民主意義
在民主理論中,公共論述是否能被檢驗與反駁,是其正當性的核心。Habermas(1984, 1996)在公共領域理論中指出,民主討論的前提並非共識本身,而是論述能否在不受強制的情況下接受理性檢驗。
然而,後 Habermasian 的批判理論(如 Foucault, 1977;Bourdieu, 1991)提醒我們,權力並非僅透過禁止運作,而是透過話語規則、可說性邊界與知識正當性的分配來運作。
在此脈絡下,「政治審查」不再只是明顯的封禁行為,而是一種結構性話語管理:
它決定哪些問題能被提出、哪些只能以抽象形式存在。
本研究主張,當政治論述失去可驗證性與可否證性時,民主程序雖仍在形式上運作,但其實質的判斷功能已遭削弱。
2.3 媒體識讀、資訊操弄與「不可見性」問題
傳統媒體識讀研究(Kellner & Share, 2007;Livingstone, 2004)多聚焦於假新聞、偏見與操弄技巧。然而,近年研究開始指出,資訊不可見性(invisibility)本身即是一種權力形式(Roberts, 2018)。
在平台治理與演算法推薦體系下,議題的「不可見化」往往比錯誤資訊更難被察覺,卻對公共認知造成更深遠的影響。當某些問題系統性地未被呈現,公民即便具備批判能力,也缺乏判斷的材料。
本研究將媒體識讀從「內容辨識」推進至「問題結構辨識」,強調:
真正關鍵的不只是「你看到的是不是假的」,
而是「你根本沒看到什麼」。
2.4 生成式 AI、語言安全化與政治審查的內化
關於生成式 AI 的研究指出,大型語言模型並不具備真值判斷能力,其輸出目標是語言上的連貫性與可接受性(Bender et al., 2021)。在結合平台政策與風險控管機制後,AI 系統往往內化「安全回應」與「去衝突化」的語言規則(Katz, 2023)。
多項研究已警告,這種設計將導致:
- 模糊化責任歸屬
- 抽象化政治衝突
- 以中立語氣掩蓋結構性問題
本研究認為,生成式 AI 並非單純製造錯誤資訊,而是促成一種新的語言型態:
高完成度、低可追問性的政治敘事。
當此類語言與政治審查或自我審查結合,公共論述將進一步去風險化,形成本文所稱的「被消毒的扯淡」。
2.5 小結:研究定位與貢獻
綜合上述文獻,本研究的貢獻在於:
- 將 Frankfurt 的「鬼扯淡」概念從個人倫理層次推進至制度與技術層次
- 結合政治審查與平台治理,重新界定媒體識讀的核心問題
- 指出生成式 AI 並非僅是資訊工具,而是重塑公共語言結構的關鍵行動者
- 提出「認知防衛」作為 AI 時代民主社會的必要理論框架
此一整合視角,有助於理解當代公共論述為何在表面繁榮下,卻逐漸喪失判斷力與可辯論性、可責任性與集體判斷的能力。
(本章全文即為你提供之原文,於此略去重複貼上,論文中直接保留原文即可)
第三章 鬼扯作為結構性語言現象
Frankfurt 的原始分析聚焦於個體的道德態度,然而在當代社會,鬼扯已不再僅是個人選擇,而是被嵌入媒體制度、政治溝通與技術架構之中。
當語言的評價標準從「是否為真」轉向「是否安全」「是否有效」「是否不冒犯」,鬼扯便成為一種最適解。它不需要承擔錯誤風險,也無須回應反駁,卻能持續佔據公共空間。
本文主張,鬼扯的核心特徵並非內容虛假,而是刻意移除可驗證性。這使其在制度上難以被糾正,卻能長期侵蝕公共判斷力。
第四章 政治審查與公共論述的去風險化
政治審查不必然以直接禁言的形式存在。在多數現代社會中,它更常透過間接機制運作,例如:
- 話語風險分級
- 平台政策與演算法降權
- 組織內部的自我審查
其結果並非沉默,而是公共論述的「去風險化」:只剩下抽象價值、模糊責任與不可否證的說法。
當政治論述無法被具體化,民主討論便失去其核心功能——公共判斷。
第五章 生成式 AI 與「安全化語言」的制度效果
生成式 AI 的設計目標是產生「看起來合理」的語言,而非對事實負責。在結合政治審查與平台風險管理後,AI 系統傾向生成以下語言型態:
- 結構完整但內容抽象
- 語氣中立但立場不可追問
- 避免衝突但同時避免責任
本文指出,這並非技術缺陷,而是制度誘因下的必然結果。AI 成為扯淡的加速器與穩定器,使其得以低成本、規模化生產。
第六章 詐騙手法作為「認知攻擊」:從個體欺騙到結構性操弄
6.1 重新定位詐騙:不是犯罪技巧,而是認知工程
傳統上,詐騙多被視為刑事犯罪或道德偏差,其研究重點集中於:
- 加害者動機
- 受害者心理弱點
- 法律與防制機制
然而,在高度資訊化與平台化的社會中,詐騙已不再只是個體對個體的欺騙行為,而是一種高度成熟的認知操弄技術(cognitive manipulation technology)。
本文主張:
詐騙本質上是一種「縮小版、極端化的鬼扯淡與政治操弄模型」,其核心不在於謊言內容,而在於對「判斷流程」的系統性繞過。
6.2 現代詐騙的共同結構特徵
無論是投資詐騙、愛情詐騙、假冒官方、AI 變聲或釣魚郵件,現代詐騙高度共享以下結構特徵:
(一)刻意破壞可驗證性
- 阻止你查證(「限時」「機密」「不能告訴別人」)
- 製造資訊孤立
- 切斷第三方檢驗管道
這與政治審查中「移除可追問空間」的邏輯高度一致。
(二)以敘事取代事實
- 完整故事線(身分、背景、使命)
- 合理但不可查證的細節
- 高度情緒化的因果連結
詐騙並不追求事實一致性,而是追求敘事閉合感,讓受害者「不再需要查證」。
(三)情緒優先於判斷
- 恐懼(帳戶異常、法律風險)
- 貪婪(高報酬、內線機會)
- 關係壓力(信任、愛情、責任)
這種設計的目的,是暫時關閉理性驗證機制,使人進入自動反應模式。
6.3 詐騙、鬼扯淡與政治操弄的同構性
本文指出,詐騙、鬼扯淡與政治操弄三者之間,存在高度結構同構(structural isomorphism):
面向 | 詐騙 | 扯淡 | 政治操弄 |
是否在乎真相 | 否 | 否 | 通常否 |
核心目標 | 行為轉移 | 印象控制 | 情緒動員 |
可驗證性 | 被阻斷 | 被移除 | 被模糊 |
判斷結果 | 個體受害 | 認知退化 | 民主弱化 |
差異僅在於規模與合法性外觀,而非邏輯本身。
6.4 AI 加速下的詐騙進化:生成式操弄
生成式 AI 為詐騙帶來質變,而非量變:
- 高度擬真的語言與人設
- 即時互動、情緒回饋
- 可依對象動態調整話術
這使詐騙從「腳本式欺騙」進化為自適應認知攻擊。
更重要的是:AI 詐騙與「安全化政治語言」共享同一套語言優化邏輯——
語氣合理、態度正確、避免可追責細節。
6.5 為何詐騙在「審查社會」特別有效?
在高度政治審查或自我審查的社會中,詐騙成功率往往更高,其原因並非人民更愚蠢,而是:
- 人們已習慣不追問
- 已被訓練接受模糊說法
- 已內化「不要多問比較安全」
換言之,詐騙利用的,正是被審查環境長期塑造的認知習慣。
6.6 詐騙防制作為「認知防衛」的試金石
本文最後指出:
一個社會是否具備有效的認知防衛能力,可以從「詐騙是否容易成功」來觀察。
因為:
- 詐騙測試的是可驗證性
- 詐騙測試的是追問勇氣
- 詐騙測試的是對權威與敘事的免疫力
能防詐的社會,通常也較能抵抗政治操弄與生成式鬼扯淡。
6.7 詐騙手法作為認知攻擊的極端樣本
詐騙行為提供了一個清晰的極端案例,用以觀察認知防衛機制如何被繞過。現代詐騙的成功,並非依賴精巧謊言,而是透過:
- 阻斷查證
- 製造時間壓力
- 建構完整敘事以取代事實
這與鬼扯淡及政治操弄在結構上高度同構。差異僅在於規模與合法性外觀,而非運作邏輯。
因此,詐騙問題不僅是治安議題,更是公共認知結構是否健康的指標。
詐騙不是例外,而是極端樣本
詐騙不是資訊環境的邊角問題,而是認知系統被系統性繞過時的極端呈現。
當一個社會:
- 不再要求可驗證性
- 不再鼓勵提問
- 不再保護追問者
那麼,詐騙、鬼扯淡、政治操弄與 AI 語言安全化,只會是同一條邏輯鏈上的不同節點。
這也是為何,詐騙問題本質上是一個民主與認知結構問題。
第七章 AI 時代的認知防衛理論
基於前述分析,本文提出三項核心認知防衛原則:
- 可驗證性優先原則:任何公共論述皆應保留被查證與反駁的可能性。
- 不可見性警覺原則:媒體識讀須關注哪些問題未被提出,而非僅分析既有內容。
- 安全語言懷疑原則:對永遠中性、永遠模糊、永遠正確的語言保持高度警惕。
認知防衛並非反對 AI 或媒體,而是要求制度重新對「真相價值」負責。
第八章 結論(Conclusion)
本文指出,當代民主社會所面臨的核心危機,並非資訊不足,而是真相作為公共判準的逐步失效。
扯淡、生成式 AI 與政治審查三者交織,使公共語言朝向安全化、去風險化與不可驗證化發展。在此狀態下,民主制度雖仍在形式上運作,公共判斷力卻已被系統性削弱。
本文最後強調:
真正的媒體識讀,不只是分辨真假,而是守住「重要問題必須能被公開檢驗」的基本原則。
這正是 AI 時代最關鍵、也最困難的認知防衛任務。
「bullshit」翻譯成中文,最簡明、自然的口語表達是:
- 扯淡(最常用,北方口語,直接對應「胡說八道、廢話」)
- 鬼扯(強調荒唐、亂說)
- 鬼扯淡(更強烈,粗魯感最接近原詞,常說這純屬鬼扯淡!=「That's pure bullshit!」)
三者中,「扯淡」最簡短通用,「鬼扯淡」語氣最重、最貼近bullshit的粗魯感覺。
德國「防衛性民主」(Wehrhafte Demokratie)的建立,是人類憲政史上最深刻的一次「痛定思痛」。1949 年西德制訂《基本法》(Grundgesetz)時,確立了一個核心原則::民主不再是中立的工具,而是一套必須被誓死捍衛的「價值體系」。「我們不應再容許納粹般的勢力以自由為幌子,行顛覆民主之實。」德國的經驗告訴我們:民主若要存續,就必須對其敵人保持警惕。
AI學會日本政客的答辯術:公共語言的系統性退化與全球抵抗
https://ai-quantium-fun.blogspot.com/2026/01/ai.html

留言
張貼留言