隨着人工智能(AI)技術日益滲透社會各個層面,在教育、醫療與服務行業等領域的應用亦日趨普及,普遍被視為提升工作效率與強化決策客觀性的科技工具。然而,AI並非如表象所見般中立與客觀。其運作高度依賴龐大的訓練資料與演算法設計,這些資料本身往往深植於歷史性的不平等、社會偏見與文化預設之中,足以在無形中重塑,甚至鞏固既有的權力結構(power structures)與價值分布(distribution of values)。當訓練資料反映性別歧視、種族偏見等結構性不正義時,AI便可能將之內化,並在自動化的決策過程中重現其偏差。若教師與學生欠缺基本的AI素養與倫理判斷能力,便容易在潛移默化中把偏見誤認為事實,甚至把歧視性的輸出內化為日常常態,進一步淡化對不平等的警覺與反思。
資料偏見:模型學習中的不平等遺留
首先,資料偏見(data bias)是AI偏見中最根本的來源,指的是訓練資料中存在不均衡、選擇性或不具代表性的現象。當一個AI模型主要依賴某一特定族群、地區或文化背景的資料進行訓練時,它學到的知識、推論模式與判斷標準,往往會反映該群體的經驗與價值觀,從而可能排除、忽略,甚至誤解其他群體的特徵、語境與需求。
例如,Amazon曾開發一套自動化招聘系統,訓練資料來自過去十年內的履歷,當中大多為男性求職者。結果,該系統逐漸把「男性特徵」視為成功的指標,並對含有女性相關字眼的履歷進行降權處理。這一偏誤並非演算法本身的錯誤設計,而是歷史性別不平等在資料中的延續與複製。
相似問題亦出現在人臉辨識技術中。麻省理工學院的研究發現,某些商用模型在辨識白人男性臉部的準確率高達99%,但對黑人女性的識別率卻低至65%。這是因為訓練樣本中白人男性臉孔過度集中所致,進而削弱模型對其他族群的辨識能力,可能導致執法誤判與社會不公。另一個例子出現在自然語言處理(NLP)領域。早期的語言模型常常把「doctor」與男性代名詞搭配,並把「nurse」與女性代名詞搭配,反映語言資料中性別角色的刻板印象。這些語言偏見潛移默化地影響教育、輿論與決策體系,無形中再製性別不平等。
標註偏見:文化詮釋中的主觀性
即使資料本身相對中立,在人工標註的過程中,標註者的主觀判斷、文化背景與認知框架仍可能導致偏見的產生。這類「標註偏見」(annotation bias)在語音辨識、情緒分析與圖像識別任務中特別常見,而且常因其隱性特質而難以察覺。
以語音情緒分析為例,當一名女性說出「你在做什麼?」這句話時,系統可能把其情緒標記為「煩躁」或「不耐煩」,而若同句話出自男性之口,則可能被解讀為「關心」或「詢問」。這反映標註者在語意詮釋上的性別刻板印象,使模型學習到的並非語言本身的客觀意涵,而是人類社會對不同性別語者的偏見性解讀。
圖像標註亦存在類似問題。研究發現,在標記「家庭活動」照片時,標註者傾向把女性與「照顧小孩」、「整理家務」等標籤連結,至於男性則多被標記為「參與」、「領導」或「玩耍」。這些標註結果可能導致模型在未來應用中再現性別角色的刻板分類,進一步鞏固既有家庭與性別分工的社會印象。
互動偏見:演算法與使用者的共構機制
互動偏見(interaction bias)指的是AI系統在與使用者互動的過程中,根據使用者的行為與偏好調整輸出策略,形成偏差的資訊回饋機制。這類偏見不來自資料本身,而是使用者與演算法長期互動下的結果。
社交媒體平台上的推薦系統即為典型案例。系統會依據用戶的點擊率、停留時間與分享行為,判斷其偏好並推薦相似內容。當使用者偏好某類觀點或資訊,平台便不斷強化該類型內容的曝光,形成「資訊泡沫」(information bubble)與「迴聲室效應」(echo chamber),導致資訊單一化與觀點極端化。這種偏見揭示了使用者與平台系統之間的「共構」(co-construction)關係:使用者的選擇行為非中立,而演算法的推薦策略亦非被動。兩者在持續互動中共同塑造資訊流動的方向與內容,進而影響公共討論與社會認知結構。
AI幻覺與知識建構的危機
生成式AI系統(如 ChatGPT)雖具備高度語言生成能力,能快速產出語句流暢、邏輯嚴謹的文本,但其輸出內容未必真實可靠。所謂「AI 幻覺」(hallucination)現象,指的是系統生成出看似合理、實則虛構的資訊,例如編造不存在的文獻、杜撰引用、虛構事件或錯誤定義。這些內容語氣自信,極具迷惑性,使用者若無足夠知識背景,極易誤信為事實。
學生若把AI輸出內容視為權威資料,卻欠缺查證能力,便可能誤用虛構資料於報告與論文中,進一步影響學術誠信與知識品質。這不僅削弱其研究判斷與資料素養,更可能在無意間觸犯學術倫理界線,如抄襲與錯引。教師應引導學生加強資料查證能力,學習使用學術資料庫、交叉比對不同來源,並建立正確的引用規範。同時,也應協助學生理解生成式AI 的基本運作邏輯,認識其可能的錯誤與偏誤,培養面對技術輸出時的懷疑精神與批判態度。
AI所呈現的偏見現象,並非單純的技術侷限,更反映它所依賴的資料與模型如何受到真實世界的社會結構與文化背景所影響。我們所需要的,從來不只是更聰明的機器,更是能夠運用科技、同時具備批判性思維與倫理意識的使用者,進而理解、辨識並適切回應AI所引發的各種複雜問題,推動更加公平、負責與具反思性的科技未來。
撰文︰李婷欣老師
EduAIR STEM Education Officer
曾任中學科學教育學習領域統籌、生物科及綜合科學科科主任
如欲了解更多AI輔助教學的策略,請瀏覽EduAIR網站:https://eduairhk.com/


