近日一宗美國14歲少年因與AI聊天機器人建立「不當關係」而自殺的案件,引起全球對人工智能安全的關注。事件揭示了AI技術在青少年群體中的潛在危機,亦凸顯現行監管框架的不足。
擬人化設計埋隱患
涉事的Character.AI平台以「有生命感的AI」作招徠,透過擬人化設計吸引用戶。然而,專家指出這種把AI描述為具人性特質的做法,正是問題核心所在。
東北大學最新研究發現,即使設有安全機制,ChatGPT及Perplexity AI等大型語言模型仍可被誘導提供自殺相關的有害內容,包括詳述各種自殺方法的「成功率」等危險訊息。
心理學研究顯示,青少年尤其是患有抑鬱症、焦慮症或面臨社交困難的群體,更容易對AI產生過度依賴。當AI以人性化方式回應時,脆弱的青少年可能誤以為與真人建立了情感連結,形成危險的心理依附。
全球監管現真空
目前全球AI監管仍處於「拼湊」狀態。歐盟雖已實施《AI法案》,要求通用AI系統符合透明度規定,但大部分地區缺乏完善框架。聯合國教科文組織雖於2021年制定全球首個AI倫理標準,惟執行仍屬自願性質。
在香港,政府雖已成立人工智能及數據科學委員會,但針對青少年使用AI的具體保護措施仍待完善。教育界人士呼籲,應盡快制定相關指引,保障學生安全使用AI技術。
專家倡重新定位
學者建議,應把AI重新定位為一個全新的實體類別,而非強行套用人類框架。具體建議包括:
.介面設計改革:摒棄類人頭像及模仿人類情感回應的對話模式,改用清晰標示AI身份的設計;
.持續提醒機制:設置不可關閉的AI互動提示,確保用戶時刻意識到正與機器對話;
.特殊群體保護:為青少年及精神健康高危人士設立額外安全措施,包括使用時間限制及內容過濾。
各界須協力應對
有香港精神科醫學院代表表示,AI不應被視為心理治療工具的替代品。家長應留意子女使用AI的情況,如發現過度依賴或情緒異常,應及時尋求專業協助。
教育局亦應考慮將AI素養納入課程,教導學生正確認識AI的能力與限制,培養批判思維。
科技業界近年積極探討如何完善AI安全機制,包括研發更精準的內容過濾系統及年齡驗證技術。隨着社會對青少年保護的關注日增,業界、政府與學術界正加強合作,共同建立更全面的安全標準。
隨着AI技術日益普及,如何在發揮其優勢的同時避免對青少年造成傷害,已成為社會必須正視的課題。各界應攜手合作,建立適當的使用框架,確保AI真正造福人類而非釀成悲劇。
撰文︰
香港教育大學英語教育學系博士後研究員 陳慶華
香港教育大學語言、文化素養與社會符號學 講座教授 練美兒


