【張瑞雄專欄】AI不一定大就是好

中國移動首先創新提出「AI+DICT」理念。圖/取自新華網
中國移動首先創新提出「AI+DICT」理念。圖/取自新華網

張瑞雄 台北商業大學前校長/叡揚資訊顧問

目前的人工智慧(AI)領域,速度與規模的競爭愈演愈烈,尤其是在生成式AI的應用上。但隨著AI技術的快速發展,這種不斷擴大的競爭是否真的符合人類的長期利益?
 
一些AI公司正競相提高生成式AI的推理速度,甚至已經達到了每秒超過2000個詞元(token)的水平。這種極端的速度被視為對未來數據密集型應用,如串流媒體和搜索結果生成等領域的關鍵,以減少系統回應的延遲。
 
這樣的競速現象帶來的疑問是,我們是否真的需要如此快速的AI反應?對於普通用戶來說,當前的生成式AI已經能夠在合理的時間內產生回應,過度追求速度是否反而會忽略AI模型的品質,並造成不必要的資源浪費?
 
除了速度競賽,AI領域還存在一種普遍的思維,即「規模即是力量」。AI研究者普遍認為增加模型參數和計算能力可以帶來更好的性能。所以大公司開始競相擴大AI模型的規模,從數百億到數千億參數不等,但這樣的擴張帶來了許多問題。
 
首先大型模型往往伴隨著巨大的資源需求,這不僅包括海量數據的採集,還涉及到大量的能耗。這使得AI模型的碳足跡顯著增加,對環境造成負擔。另大型模型的開發成本極高,這意味著只有少數具備資金和技術實力的公司才能參與其中,導致AI技術的集中化。這種情況限制了中小型企業的創新空間,並且讓AI的發展變得更加不透明,普通用戶無法得知這些模型是如何構建的,也無法確定數據的可靠性​。
 
也有研究團隊嘗試打破這種「大即是好」的迷思,尋求更高效的解決方案。有些小的模型,僅使用一小部分的資源,卻能達到ChatGPT相當的性能,表示利用更精緻的數據收集與訓練方法,AI不必依賴龐大的數據集和超大的模型便能達到優秀的結果。
 
這種新趨勢強調了「小即是美」的理念,不僅在成本和能源消耗上更加節省,還可以提高透明度,使得更多企業能夠參與AI的開發與應用。這種方式不僅適用於特定的應用場景,還有助於解決目前大型模型中常見的倫理問題,如數據中的不良內容和隱私問題​。
 
當前的AI競賽似乎更注重短期的商業利益,忽視了AI在實際應用中的倫理挑戰和長期影響。更快的生成速度和更大的模型規模並不一定能真正解決問題,反而可能會加劇數據濫用、能耗過高等問題。如果AI行業繼續追求這種單一的「更快、更大」路線,那麼整個技術的發展可能會失去平衡。
 
為了實現AI的永續發展,我們需要在速度、規模與應用之間尋找平衡。AI不應僅僅是一場資本和資源的較量,而應該考慮到其社會影響、倫理挑戰以及環境負擔。縮小模型規模並提高其透明度,將有助於實現更公平的技術創新,並降低對資源的過度依賴。

還有對於生成式AI的應用,我們應更多地關注其實際效能,而非一味追求速度與規模。對於普通用戶來說,穩定、可靠和具備良好隱私保護的AI才是最重要的。而在某些高度專業化的領域,特製化的小型模型可能比龐大的通用模型更加有效。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

熱門文章

分享