陳家聲/台大商研所兼任教授
看到最近由美國非營利組織Fairplay於2026年4月16日發布的文章,並號召美國和加拿大的120家機構及142位專家的聯署呼籲暫停在學前至12年級學校使用生成式AI産品五年,稱這些産品對兒童“存在重大危害”,構成以下的威脅:
1.學生與教育工作者的隱私和自主選擇權;
2.核心能力發展,包括認知、批判性思維、分析推理、决策、情緒管理與人際交往能力;
3.心理健康、公平性、人身安全,以及接受優質教育的權利;
4.教育工作者的專業角色;
5.學術誠信;
6.環境。
該立場文件宣稱基于大量文獻,確認以下的事實(僅摘錄部分):
─“AI”是一個用于自動化人類活動的營銷詞匯。
─生成式AI産品和平台威脅著兒童的認知、社交及情感發展。
─生成式AI産品威脅兒童教育的完整性。
─生成式AI産品加劇了對學生隱私的侵犯,並强化了監控。
─生成式AI産品缺乏統一的倫理準則。
─生成式AI産品助長了作弊及學術不端行爲。
該文章並引述部分專家的陳述,僅摘錄部分如下:
“GenAI正在威脅對教育至關重要的許多方面:學習材料的準確性、教師所扮演的獨特角色,而最糟糕的是,它威脅到了激發青少年學習熱情與求知欲的能力。”
“我們絕不會允許兒童醫院開出具有拯救生命‘潛力’但未經審查、驗證或測試的藥物。我們爲什麽要允許我們的孩子在學校的經歷有任何不同呢?在證明生成式AI産品安全、有效、合法且優于人類之前,我們不能將它們交給孩子們。”
“K-12教育應該是一個圍墻花園:一個受保護的聖地,在那裏,求知欲和人際聯繫可以在不受未經審查的商業利益干擾的情况下自由綻放。通過將生成式AI匆忙引入課堂,我們等于邀請一項研究尚不充分的技術突破保護兒童發展之旅的邊界。這樣的暫停,可以讓基于證據而非炒作的專業共識有時間形成。現在是時候保護學習的完整性,重新奪回課堂這個‘圍墻花園’了。”
“我無法想像,任何學校會在沒有明確證據證明其有效性和安全性的情况下,讓孩子們接觸人工智能産品。家庭需要真正的保證——是行動,而不是空話——確保孩子的學校認真對待他們的教育和安全,而不是屈服于關于生成式人工智能在教育中‘潛力’的未經驗證的炒作。”
看著這樣的文章心裡浮現著英國馬車夫的「紅旗法案」(Red Flag Act)運動。當然深層是『失業、缺乏工作保障的心理焦慮』!或許我們可以從該文章所述的問題來回答:他們所擔心的問題,五年就能夠獲得證明AI無害嗎?誰能夠證明及回答這許多的問題!再回想當前人類社會的各種法規、制度是否夠完美、安全?人類社會的犯罪、詐騙是否都消失了!…答案是否定的!
再者,這麼多教育工作者心地善良期望保護學童!讓他們在安全的學校堡壘成長,避免受不良傷害!反思一下,現在的學校是否提供孩子畢業後能夠免除他們所述AI的不良影響?有免疫能力嗎?學童使用AI就影響他們認知思維能力的發展?…他們所述的問題涉及到教育的本質與宗旨,教育的價值觀,還有教育方法與學習模式…等,這些都影響著學校教育是否能夠培養出在未來新時代所需要能力、人才?以目前社會大眾對當前教育體系所存在的問題、抱怨!相信當前學校的教育體系本身是不完美的!學校是否對此提出創新改善之道?因為看見許多老師、專家相信他們目前都是『對的』,期望把他們現在的方式移植、傳授給學童!在當前有一句話:過去的成功不是未來最好的指引!時代變了,社會變了,學校相對而言也是一個保守的體系,缺乏創新!
再者,任何科技創新都需要傳播和推廣,但若把商業活動中的『AI』行銷語言等同於是行銷科技,這是相當嚴重的錯誤!老師對AI新工具的錯誤認知:把AI看成是行銷工具!而非科技創新。是一項嚴重的錯誤。教育者需要回歸『AI』是科技創新,帶動著全社會、全產業的進化!面對它、學習它、善用它,而不是排斥它!
透過AI作為學習的輔助,如同幾十年來推動的數位學習一樣,但是目前GAI的發展,讓科技更具普惠性、有用性,AI並不是佔用學生學習的全部時間,當然存在部分學生對作業採取COPY─PASTE方式應付!但也有學生利用AI進行深度學習,廣泛地探索個人有興趣的不同領域及議題!在整個學習過程中,學生仍需要將GAI產出與老師、專家討論,這部分真實的人際互動是無可取代的。AI是個放大器,可以幫助人放大其優點,對於消極被動應付工作者,當然也放大了他們的弱點!
文章陳述到:在學校裏,學生和教育工作者正被迫將生成式AI産品用于多種用途;以及學生無法分辨AI的好壞!這種說法的背後人設是:兒童無法分辨、需要被保護、需要被指導!這種對兒童學習的認知,但不一定正確!教育者如果不能從『全人』的角度出發,把兒童視為人,而從控制者或保護者的角度出發,對兒童學習成長、探索世界的方式處處限制!壓抑了兒童的學習興趣!不知道老師們、家長們是否清楚:學童、你們的孩子是什麼時後、為什麼上學後,不再問:為什麼?因為家長、老師的共同動機是應對應試教育,把孩子學習限制應付考試、獲得高分,考上好大學!。
再者文章陳述:基于AI的平台通過收集和彙聚數據,使得校園內的數字監控和隱私侵犯現象變得常態化。監控行爲會侵蝕信任基礎。這種說法或推理實在很難說服大眾!今天走在馬路上到處都是攝影機、還有科技執法,科技工具不是存在我們的現實社會中,他透過記錄人的行為反應數據,幫助人透過複盤反饋而學習。數位學習不就是這狀態嗎?學生、老師、任何一個人在使用電腦或手機時,是否覺得個人隱私都被侵犯了!數位或AI科技只是透過數位系統蒐集行為或生產數據而已,進一步對大量數據進行分析找出一些規則,這可以作為安全防範、危機意外的預測、以及事故事件的事後分析,這些分析都要靠著數據!重點是如何規範平台、組織對數據的不當蒐集與使用!
數位系統、GAI只是工具而已,會作怪的是『人』!特別是一些有心人!人類社會各種人都有!詐騙、駭客的存在不是今天才有!有人的地方就有江湖!科技的創新讓一些人能夠更廉價、快速地獲取大量、不當利益!這需要政府、科技公司本身,以及個人也要做好各種安全防範!犯罪的源頭是『人』!這些人三觀不正!例如每當選舉時,政客利用各種手段抹黑、造謠、製造族群對立…等手段,操弄資訊以獲取選票!罪魁禍首是『人』!不是科技!如果因為存在虛偽訊息或網路詐騙而限制科技,這是因噎廢食!本末導致!
對於生成式AI仍存在正經八百、胡說八道!這是科技系統發展過程中的必然現象,特別是LLM大模型的訓練數據是採用網路數據!其中本身就存在著真偽難辨的數據清洗問題!以及既存數據是過去到現在社會現象的寫照!中間反映著人類社會發展歷史中存在的各種族群、性別、年齡、宗教、風俗習慣…等差異,如果數據是反映人類社會發展史的記錄,從大數據的結果更能夠讓我們從中學習,清楚地認知人的各種認知偏誤!看著愛波斯坦案,這是當代人類社會的寫實案例,看見世界名人、企業家、政客不為人知的黑暗行為!少林寺住持、牧師等的人性貪腐淫蕩,這與他們在公開場合的冠冕堂皇化與作為是相互矛盾的!老師、父母對孩童的告誡,但老師、父母本身也經常會犯錯的!這種知行間的差距是人類的本性,所以佛陀、宗教都強調終身的修行!