發表文章

目前顯示的是有「桃園外送茶」標籤的文章

外送茶工作者因AI內容審查被下架的「數位審查經濟暴力」現象——人工智慧治理下的性別、權力與技術偏見分析

圖片
  第一章 引言:當 AI 變成新的審查者   在數位平台全面滲透人類生活的今日,人工智慧( AI )早已成為網路治理的中樞力量。從 Facebook 的內容過濾、 YouTube 的廣告分潤審核、到 OnlyFans 與推特的自動識別機制, AI 被賦予「維護公共秩序」與「確保平台安全」的合法性。然而,在這種表面中立的技術治理邏輯之下,外送茶工作者成為受害最深的一群。   許多外送茶工作者以數位平台為生——她們販售自拍內容、提供線上陪聊、經營社群品牌或透過外送茶與定點服務招攬客戶。這些行為雖然在多數國家尚處於法律灰色地帶,但對許多從業者而言,它是一種合法的經濟生存策略。然而,當 AI 演算法在審查過程中將「性化內容」與「性勞動者」一體化處理時,結果往往是帳號遭封禁、內容被刪除、金流被凍結。   這種看不見的懲罰不再需要警察介入,而是由程式碼執行。這正是「數位審查經濟暴力」的核心特徵——暴力不再依附於肉體,而存在於演算法的判定邏輯與資料庫結構之中。   第二章  AI 內容審查的技術結構與偏誤來源   AI 內容審查系統通常結合「影像辨識」、「文字語義分析」與「自然語言模型」三種機制。其核心邏輯是透過標記資料集進行監督式學習,讓模型學會分辨「不當內容」。然而這些資料集往往由西方企業建立,反映的是歐美社會的道德標準與文化禁忌。   舉例而言,模型可能將「深色背景中的女性身體特寫」標註為「裸露或成人」,或將「貼身衣物」判定為「性挑逗」。這導致亞洲外送茶工作者的照片,即便未涉露點,也因妝容、姿勢、房間佈置而被視為違規。語言模型亦存在偏誤:中文、泰文、日文等非英語語料中,許多行業隱語(如「茶」、「甜心」、「應召」)被誤判為詐欺或成人關鍵詞,進而觸發封鎖。   更嚴重的是, AI 審查模型缺乏上下文理解能力。例如,「性教育」、「同志健康倡議」等公共討論內容,也常被自動標註為「成人內容」,形成對性議題的整體壓制。這種系統性偏誤,反映了 AI 治理背後的文化殖民與性別政治。   第三章 平台治理與「演算法暴力」的制度化   AI 審查的真正問題,不僅是技術偏誤,而是平台壟斷結構使偏誤制度化。   ...