【張瑞雄專欄】生成式AI與網際網路的「真實性危機」

生成式AI使得低成本大量生成內容成為可能,這些內容往往充滿不準確且重複性高的「資訊垃圾」。示意圖/翻攝自INFO YouTube頻道
生成式AI使得低成本大量生成內容成為可能,這些內容往往充滿不準確且重複性高的「資訊垃圾」。示意圖/翻攝自INFO YouTube頻道

張瑞雄/台北商業大學前校長、叡揚資訊顧問

隨著生成式AI的快速發展,我們正在見證一個對現代網路和資訊內容生態系統的挑戰:數位真實性的崩塌。儘管這些AI技術帶來了前所未有的便利與創新能力,但它們也引發了無法忽視的問題,資料資訊污染、AI模型崩塌,以及人類文化的逐漸稀釋。這些問題不僅影響到數位內容的品質,也威脅到我們對真相的基本理解。

從數位內容生成的角度看,生成式AI使得低成本大量生成內容成為可能,這些內容往往充滿不準確且重複性高的「資訊垃圾」。例如AI生成的假作者文章出現在著名媒體平臺,並被發現僅僅是為了點擊率和廣告收入而存在的低品質產物​。這樣的現象已在科學出版、娛樂內容和兒童教育等多個領域泛濫,對受眾者特別是兒童造成潛在的長期傷害​。

根據劍橋和牛津大學的研究,當生成式AI依賴自身生成的內容進行再訓練時,其回應的準確性會迅速下降,最終退化為毫無意義的產出​。這種「模型崩塌」現象表明,如果沒有新的人類創作內容補充,AI系統的品質將無法維持。這不僅對AI本身構成威脅,更會導致互聯網上可信資料和資訊的迅速減少,最終引發一場網路和資訊的末日。

生成式AI的普及使得互聯網充滿了重複性高且品質低劣的內容,例如許多AI生成的兒童教育影片內容雖然在標示上顯示為「教育性」,實際上卻缺乏連貫性和教育價值。此類內容的普及不僅影響到兒童的認知發展,也在整體上稀釋了文化內容的深度與多樣性。

在這種背景下,制定生成式AI的監管政策變得尤其重要。我們需要針對生成式AI的影響,建立類似於「數位內容清潔法案」的規範措施,以遏制資料污染的擴散。例如針對AI生成內容的標示和透明度要求可以幫助用戶分辨真實與虛假內容,同時推動對人類創作內容的保護與鼓勵也更為需要。

正如維基百科(Wikipedia)堅持的開放與社群監管模式,它為我們指出了一條可能的出路。相比於商業平台以利潤為導向的做法,Wikipedia的模式注重社群的參與與透明性,讓平台能夠在資訊可信度上保持較高標準。這一模式或許可以為數位平台提供啟示,如何在擴展技術邊界的同時,不忘捍衛數位文化的價值與真實性。

生成式AI正在改變我們的資訊和資料內容生態,甚至挑戰我們的文化基礎。面對其帶來的負面影響,我們不能袖手旁觀,透過技術、政策、監管與文化的多重努力,我們有機會避免一場文化毀滅的悲劇。數位時代的真實性,不僅關乎我們如何看待這個世界,更關乎我們如何定義自己作為人類的存在。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

臉書

熱門文章

分享