一張錯誤的AI影像 真正考驗的是學校

2026年01月30日 星期五

 

近一段時間,我與不同中學教師、校長及教育工作者交流時,不止一次聽到一個相似的問題︰如果學生使用生成式人工智能製作圖片或影片,內容出現錯誤甚至不準確,而學生本身並未察覺,學校應該如何處理?

這個問題乍看之下與技術有關,實際上卻反映一個更深層的教育處境。當內容可以快速生成,但未必可靠時,學校究竟應該為學生把關的是什麼?

錯誤不是例外 而是可預期情況

從創意媒體與人工智能系統的角度來看,生成式人工智能產生錯誤或不準確內容,並非偶發,而是其運作邏輯的一部分。

從技術層面而言,部分較早期的影像生成模型,往往會把運算資源集中於畫面中的主要焦點,令主體看起來格外清晰合理,但畫面中其他層次則較容易出現比例或邏輯上的不一致。這種局部真實而整體失衡的情況,正是使用者難以即時察覺問題的原因之一。

隨着生成技術持續演進,這類明顯的破綻雖然逐漸減少,但錯誤並未消失,只是變得更細微、更不易辨認,對使用者的判斷能力提出了更高要求。這亦提醒我們,技術的進步並不能取代人類對內容真實性與合理性的責任。

因此,當學生提交的影像或影片包含錯誤資訊時,這未必意味學習失敗。真正值得關注的,是學生是否意識到內容可能有誤,是否嘗試核實,以及是否理解錯誤資訊一旦被使用或公開,可能帶來的影響。

當生成變得容易 判斷成關鍵能力

在生成式人工智能逐漸進入校園日常後,教育面對的關鍵問題,已不再是工具本身,而是學生是否仍然具備基本的判斷能力。

在這樣的環境下,真正稀缺的能力不是能否產出內容,而是能否判斷內容是否合理,能否辨識看似真實但實際不準確的資訊,以及是否願意為自己所使用與發布的內容承擔責任。

不少學校會問,是否可以從技術層面判斷一張圖片或影片是否由AI生成。以現階段的發展而言,並不存在百分之百可靠的方法。各種技術工具只能作為輔助參考,若過度依賴,反而容易把一個教育問題轉化為信任與公平的難題。

學校的回應本身就是一種教學

正因如此,當學生使用生成式人工智能產生錯誤內容時,學校的處理方式,本身就構成了一種重要的學習訊號。在實務層面,學校與教師可考慮以下原則,作為處理相關情況的行動框架:

• 先區分學習與評核情境,學習活動中的錯誤應以引導與修正為主;
• 把焦點放在學生的判斷過程,而非只看作品是否正確;
• 清楚說明使用人工智能的責任界線,讓學生明白內容責任不會因工具而轉移;
• 只有在錯誤涉及公開誤導、傷害他人或惡意使用時,才需要進入校內管理層面的處理。

除了回應錯誤,教師亦可以主動把錯誤轉化為教學設計的一部分。例如,要求學生使用生成式人工智能生成一張圖片或一段影片,然後指出當中的錯誤或不合理之處,並提出修正方法。這類活動能讓學生清楚理解:

• 人工智能系統並非永遠準確;
• 錯誤內容往往看似合理,甚至相當可信;
• 判斷、核實與承擔責任,仍然是人類不可被取代的角色。

最後,想和教育領導者分享一個觀察。隨着生成式人工智能逐漸進入校園日常,學校未必能,也未必需要,為每一個新情境準備好標準答案。反而更重要的,是學校是否能在不同情況下,維持一套一致而可被理解的專業判斷方式。

我更關心的,並不是某一次事件最終如何被定性,而是這些日積月累的處理方式,會在學生心中留下什麼。如果學生能在過程中慢慢理解,技術可以協助創作,但無法取代人類對真偽的判斷與責任,那麼即使工具並不完美,學生仍然能從中學會判斷與承擔,這或許正是教育一直努力的方向。

 

撰文︰Ringo Fai
LexGo Academy 共同創辦人、香港城市大學媒體與傳播系講師、一位女孩的爸爸。專注 AI教育與創意課程設計,為學校與家長打造可落地的創新學習方案。我相信教育不只傳授答案,更要打開問題與思考的空間;也希望把學習從「會做題」帶向「會創造」。