外送茶工作者因AI內容審查被下架的「數位審查經濟暴力」現象——人工智慧治理下的性別、權力與技術偏見分析
第一章 引言:當AI變成新的審查者
在數位平台全面滲透人類生活的今日,人工智慧(AI)早已成為網路治理的中樞力量。從Facebook的內容過濾、YouTube的廣告分潤審核、到OnlyFans與推特的自動識別機制,AI被賦予「維護公共秩序」與「確保平台安全」的合法性。然而,在這種表面中立的技術治理邏輯之下,外送茶工作者成為受害最深的一群。
許多外送茶工作者以數位平台為生——她們販售自拍內容、提供線上陪聊、經營社群品牌或透過外送茶與定點服務招攬客戶。這些行為雖然在多數國家尚處於法律灰色地帶,但對許多從業者而言,它是一種合法的經濟生存策略。然而,當AI演算法在審查過程中將「性化內容」與「性勞動者」一體化處理時,結果往往是帳號遭封禁、內容被刪除、金流被凍結。
這種看不見的懲罰不再需要警察介入,而是由程式碼執行。這正是「數位審查經濟暴力」的核心特徵——暴力不再依附於肉體,而存在於演算法的判定邏輯與資料庫結構之中。
第二章 AI內容審查的技術結構與偏誤來源
AI內容審查系統通常結合「影像辨識」、「文字語義分析」與「自然語言模型」三種機制。其核心邏輯是透過標記資料集進行監督式學習,讓模型學會分辨「不當內容」。然而這些資料集往往由西方企業建立,反映的是歐美社會的道德標準與文化禁忌。
舉例而言,模型可能將「深色背景中的女性身體特寫」標註為「裸露或成人」,或將「貼身衣物」判定為「性挑逗」。這導致亞洲外送茶工作者的照片,即便未涉露點,也因妝容、姿勢、房間佈置而被視為違規。語言模型亦存在偏誤:中文、泰文、日文等非英語語料中,許多行業隱語(如「茶」、「甜心」、「應召」)被誤判為詐欺或成人關鍵詞,進而觸發封鎖。
更嚴重的是,AI審查模型缺乏上下文理解能力。例如,「性教育」、「同志健康倡議」等公共討論內容,也常被自動標註為「成人內容」,形成對性議題的整體壓制。這種系統性偏誤,反映了AI治理背後的文化殖民與性別政治。
第三章 平台治理與「演算法暴力」的制度化
AI審查的真正問題,不僅是技術偏誤,而是平台壟斷結構使偏誤制度化。
大型平台同時控制了四種權力:
曝光權——誰的內容被推薦;
金流權——誰能收款與分潤;
帳號存續權——誰能繼續存在於平台;
敘事權——誰能定義何謂「安全內容」。
當AI錯誤判定一個外送茶工作者的帳號「違規」時,該帳號可能立即失去流量、被取消支付資格或永久封禁。而平台多以「自動化決策」為由拒絕說明,也不提供透明的申訴管道。
這樣的制度性安排使得AI的技術偏差,轉化為真實的經濟懲罰。外送茶工作者失去的不僅是帳號,更是其數位身份、顧客網絡與經濟收入。這即是一種演算法暴力(algorithmic violence):它透過代碼形式執行,卻造成實質經濟與心理損害。
第四章 亞洲案例:從臺灣到日本的實際遭遇
1. 臺灣:外送茶女的「關鍵字陷阱」
臺灣外送茶社群中,不少從業者利用推特宣傳服務,但當她們在個人簡介中使用「茶」、「陪伴」、「甜心」等字樣,系統即自動判定為成人服務並封鎖帳號。有從業者表示:「推特說我違反成人內容政策,但我連照片都沒有,只是文字描述。」這反映語言模型的文化不敏感。
2. 香港:金融平台的同步封鎖
有香港外送茶工作者在OnlyFans遭下架後,連結的PayPal帳戶也被凍結。金融平台使用AI風控系統偵測「成人產業關鍵字」,導致合法收入被視為「高風險交易」。在缺乏透明規範下,她們甚至無法提領報酬。
3. 日本:數位陪聊平台的審查風暴
日本近年興起「線上陪聊(Chat Lady)」產業,部分業者被AI審查誤判為「成人影片業」。即便內容僅為情感傾聽或心理支持,也因「語音親密」而遭降權。這種模糊界線的演算法判定,進一步削弱了女性的語言與情感表達權。
這些案例說明,AI審查的「錯誤」其實並非偶然,而是一種結構性再現:它讓性別化勞動被持續排除於合法數位經濟之外。
第五章 「數位審查經濟暴力」的社會學意涵
「數位審查經濟暴力」可定義為:平台透過AI或自動化審查機制,使特定群體在經濟上被排除或懲罰,進而鞏固社會不平等的技術化暴力形式。
其社會學意涵包括:
象徵性抹除:外送茶工作者的聲音與形象被排除於公共空間,形成新的「數位沉默群體」。
自我審查化:為避免封禁,從業者開始使用隱語或自我約束,導致語言自由收縮。
階級化的技術控制:AI工具的偏見反映資本主義分工,科技公司以道德名義管理底層勞動。
心理創傷與焦慮:帳號隨時可能消失,使從業者長期處於不安全與無力狀態。
在這樣的環境中,外送茶工作者的數位勞動被視為「不應存在的經濟活動」,而AI則成為新型社會控制機制的執行者。
第六章 法律真空與平台主權的倫理爭議
現行法律難以處理AI審查引發的權益損失。多數平台託管於跨國公司,其使用者條款明訂「公司保留最終審查與封鎖權」。這種「平台主權」使使用者幾乎無法主張權利。
此外,AI審查決策多由自動化模型完成,缺乏人工介入的可追溯性。即使當事人提出申訴,也難以獲得具體理由。對外送茶工作者而言,這意味著她們不僅被審查,更被剝奪了「被理解」的權利。
從倫理層面來看,這構成對人類尊嚴的侵犯。AI審查系統在未經充分審議的情況下,被廣泛應用於社會治理,其後果卻由弱勢群體承擔。
第七章 AI審查與數位性別政治
AI內容過濾不僅是技術問題,更牽涉「誰的身體可被觀看、誰的慾望可被表達」。在演算法學者Noble(2018)所稱的「演算法歧視」中,搜尋與推薦機制往往再製性別與種族刻板印象。
在此脈絡下,女性的身體被視為「潛在風險」,而男性主導的技術社群以「保護」之名進行控制。外送茶工作者因而成為雙重他者——既是被物化的對象,又是被排除的主體。
這種數位性別政治,使AI審查成為當代「性道德治理」的延伸。它將女性勞動者的經濟行為標示為「不安全、不合法、不道德」,以維持平台的品牌潔淨與商業形象。
第八章 反制與集體行動:從自救到倡議
在壓力之下,外送茶工作者並未全然沉默。她們透過以下方式展開反制:
技術自救:使用VPN、備份伺服器、去中心化平台(如Mastodon、Bluesky)保存資料。
語言創新:發展新的隱語系統(如以水果、顏色、星座代稱服務),在審查縫隙中維持溝通。
跨國聯盟:歐美的「Hacking//Hustling」與亞洲的「Sex Work is Work」運動,皆呼籲平台公開AI審查數據與誤刪比例。
法律倡議:推動「演算法透明法」、「數位平台問責法」與「AI人權法案」,要求企業揭露模型訓練資料並建立人工覆審程序。
藝術與公共論述:部分外送茶工作者以數位藝術、行為展演揭露審查暴力,使社會重新看見被刪除的身體與聲音。
這些行動標誌著外送茶工作者的「數位公民化」過程——從被審查的對象轉變為要求制度改革的主體。
第九章 政策建議:走向包容的AI治理
為了防止AI審查繼續擴大數位不平等,本文提出以下政策方向:
演算法透明化:要求平台公開審查模型的判定邏輯、關鍵字與資料來源。
建立人工覆審制度:針對被下架帳號設立快速申訴與人工審核機制。
納入多元代表參與:平台應邀請外送茶工作者、LGBTQ團體、學者與技術專家共同討論審查標準。
數位勞動者權益保障:承認外送茶工作者為平台經濟中的創作者,享有收益與資料存取權。
跨國司法合作:建立國際間對AI審查的問責機制,避免企業以境外託管規避責任。
教育與意識提升:推動社會理解外送茶工作者的多元勞動形式,破除「色情即罪惡」的陳舊觀念。
第十章 結論:讓被演算法刪除的聲音重新被聽見
AI審查的核心矛盾,在於它以「保護社群安全」為名,卻以不透明與偏見方式重塑社會秩序。外送茶工作者的遭遇揭示出一個更廣泛的問題:誰有資格在數位世界中存在?誰能決定什麼是「適當的身體」?
當AI成為新的審查者,數位暴力已非個別事件,而是全球性結構。要打破這個體系,必須重新定義「安全」與「自由」的關係:真正的數位安全,不應建立在刪除異質身體的基礎上,而是讓所有勞動形式都能被理解與尊重。
外送茶工作者不只是被技術排除的群體,她們同時是對抗數位歧視、重構網路倫理的重要行動者。她們的經驗提醒我們:演算法不應只是監控工具,更應成為社會正義的媒介。唯有如此,AI時代的公共空間,才有可能真正屬於所有人。
延伸閱讀

