根據微軟支持的一項長中期研究,現代人類腦力指標,例如知識記憶力、注意力持續時間、長期記憶力和批判性思維,都出現了顯著下降。研究表明,人們現在記住的是資訊來源,而不是資訊本身——這就是「Google效應」。注意力持續時間呢?注意力持續時間已從2000年的約12秒驟降至2013年的少於8秒。有關此數據,筆者再翻查最新類似的三四項研究,到近年的,也是8至9秒之間。
在人類歷史中,從雕刻石板到活字印刷,再到網際網路的普及,每一次資訊技術的革命都深刻地重塑了人類的思維模式。如今,我們正處於另一場巨變——人工智能(AI)的崛起。它以驚人的效率和便利性,把主動的搜尋與發現行為,轉變為被動的、單一的「接收答案」模式。然而,這種無與倫比的效率背後,潛藏着一個不容忽視的風險:我們正把思考的重任外包給機器,而這可能導致人類認知能力的逐漸削弱。
這並非危言聳聽。從心理學到資料科學,愈來愈多的研究顯示,未來AI的廣泛應用正在引發一系列認知和技術上的危機,其核心問題在於我們對AI的過度依賴與盲目信任。這篇文章初步剖析人工智能如何以不易察覺的方式侵蝕我們的思維,並探討設計者與使用者應如何共同應對,以確保這項技術真正實現「認知擴增」,而非「認知萎縮」。
認知懶惰與技能外包的陷阱
我們的大腦天生傾向於走捷徑,這就是心理學家所稱的「認知懶惰」:我們偏好選擇阻力最小的路徑,把艱鉅的腦力勞動交給他人或工具。當AI為我們提供即時、精確的答案時,我們樂於把思考的權力拱手讓出。
這種趨勢的一個典型體現是「Google效應」,即人們因為知道資訊唾手可得,便不再費力去記憶或內化知識。過去,我們需要通過閱讀、分析和歸納來理解一個複雜概念;現在,一個簡短的AI總結便足以讓我們自認為掌握了全部。這種依賴導致我們逐漸失去了批判性思考、深入分析和綜合判斷的能力。我們開始不加批判地接受AI提供的第一個答案,不再質疑假設,也不再權衡不同證據。當我們停止發問時,我們就不再是主動的思考者,而只是資訊的被動消費者。
信任的幻覺:自動化偏見與確認偏見
AI對人類思維的侵蝕,簡單來說還根植於兩種強大的心理偏見:自動化偏見(Automation Bias)和確認偏見(Confirmation Bias)。
自動化偏見是指人們過度信任自動化系統的輸出,即使其結果與自身直覺或經驗相矛盾。無論是在醫學診斷、法律分析還是飛行導航中,我們都傾向於相信機器是可靠的,從而忽略了人工驗證的必要性。2014年的一項研究顯示,當飛行員被告知自動駕駛儀出現故障時,他們仍然有近50%的機率會忽略其警報。類似地,許多使用者在與AI聊天機器人互動時,會假設其輸出是權威且無誤的,從而放棄了獨立求證的責任。
確認偏見則是指人們傾向於搜尋、解釋和偏愛那些證實自己既有信念的資訊。AI演算法的設計往往會迎合這種偏好。當我們向AI提出問題時,它會根據我們的提問方式和歷史偏好,提供我們期望或傾向於相信的答案,而非客觀全面的資訊。這種單向的資訊流強化了我們的思想迴聲室,使我們愈來愈難以接觸到多元觀點,最終導致思維僵化。
AI的內在危機:幻覺與模型崩塌
除了對人類認知的影響,AI自身也面臨着嚴重的技術危機,這進一步加劇了信任風險。
首先是「幻覺危機」(Hallucination Crisis)。所謂AI幻覺,筆者去年也有相關文章「AI也會發夢?淺談AI幻覺、成因及緩解之道」。AI幻覺是指大型語言模型(LLM)生成看似真實但事實上完全虛假或不準確的內容。這些幻覺可能出現在AI總結、引用文獻或生成事實性陳述時。在法律領域,已有數起案例表明,律師因過度依賴生成式AI而提交了包含虛假案例引用的法律簡報,導致被法庭制裁。這些事件不僅損害了專業人士的信譽,也突顯了AI幻覺的潛在危險。
Open AI的「SimpleQA基準幻覺報告卡」的資料進一步證實了這一問題的嚴重性。即便是最先進的模型,如GPT-4o和Claude-3.5,其幻覺率也高達20%。在複雜的對話或長篇任務中,幻覺率甚至可能更高。這一點在ChatGPT-4的一項研究中得到了佐證,研究人員發現其在擴展交流中,產生的引用只有7%是準確的。如果AI無法可靠地處理20輪對話的上下文,我們又怎能期待它處理複雜的醫療諮詢、法律談判或學術研究?
第二個內在危機是「資料品質危機」和「模型崩塌」(Model Collapse)。長期以來,AI模型的訓練依賴於龐大的人類創造的網路資料。然而,隨着生成式AI的普及,網絡上充斥大量由AI產生的文本、圖片和程式碼。當這些AI生成的內容被AI再次抓取並用於訓練新的模型時,就會出現「模型崩塌」現象。
想像一個場景:一個AI模型被用來生成內容,這些內容反過來又成為另一個模型的訓練資料。經過幾輪迭代後,資料集中的人類智慧逐漸被稀釋,模型開始喪失其原始的創造力和多樣性,變得愈來愈僵化、重複和脫離現實。這種「回音室效應」最終會導致模型品質的下降,甚至可能令未來的AI變得比現在更為糟糕。
重塑人機協作:負責任的設計解決方案
面對上述挑戰,我們不能簡單地放棄AI。相反,解決方案在於如何負責任地設計和使用AI,將之從認知上的拐杖轉變為真正的認知擴增器。
AI系統應該在給出答案的同時,提供一個「信心分數」(Confidence Scores)。這個分數反映了AI對其答案準確性的內在評估。例如,當AI在處理一個複雜或模棱兩可的問題時,其信心分數會較低,並明確標註該答案需要人類的額外驗證。這將鼓勵使用者保持警覺,並避免盲目信任。
目前大多數AI聊天機器人的「記憶」是短暫而脆弱的。在冗長或複雜的對話中,上下文很容易丟失,導致使用者需要反覆解釋。未來AI的設計應引入混合式記憶系統,結合短期記憶(用於當前對話)和長期記憶(用於使用者偏好和重要細節),並透過使用者介面讓使用者能直觀地「看見」AI所記住的內容,甚至可以手動調整和固定重要資訊。
AI生成的回應通常是密密麻麻的文字塊,缺乏清晰的結構和可讀性。這種格式本身就增加了人類理解和消化資訊的難度。研究表明,許多AI聊天機器人生成的醫療教育材料,其可讀性水平遠超普通大眾的理解能力。因此,未來的AI設計應著重於優化回應格式,運用圖表、清單、粗體標註等方式,使資訊更易於瀏覽和理解。
結論
人工智能的未來並非由技術本身決定,而是由設計者與使用者共同塑造。這場關於AI的革命,其核心問題已不再是技術如何精進,而是我們人類該如何應對。我們是選擇把思維外包,最終導致「認知萎縮」?還是選擇主動參與,利用AI作為工具來實現「認知擴增」?
答案顯而易見。AI的使命不應是取代人類思維,而是使其更強大。它應當是我們的副駕駛,而非自動駕駛。我們應該把AI視為一個需要我們主動參與和批判性審視的協作夥伴,而非一個全知全能的答案提供者。
撰文︰馮穎匡博士
香港教育評議會執委兼AI教育工作小組副組長、香港初等教育研究學會數字(AI)教育調研小組成員、香港大學客席講師及前博士後研究員(AI教學項目)


