張瑞雄/台北商業大學前校長、叡揚資訊顧問
科技界最近出現了一個引發熱議的職位,人工智慧龍頭企業OpenAI正在公開招募一位年薪高達五十五萬五千美元的「備災負責人」(Head of Preparedness),這項職務被形容為一個極具壓力且必須立即投入前線的工作。這項舉動表面上是為了強化現有的安全系統與防護機制,讓人工智慧在現實世界中能按照預期運作,但背後所透露出的訊息卻令人感到不安。
當執行長親口承認這是一份地獄般的工作時,也等於向外界昭告,這些被大眾廣泛使用的科技工具,正處於一種隨時可能失控的邊緣。這種在產品已經大規模推向市場後,才急於尋找救火隊長的作法,反映出科技巨頭在追求技術突破與社會責任之間的失衡。我們不禁要問,當前的科技發展是否已經快到連創造者自己都無法掌握的地步。
這種急迫感的背後,隱藏著巨大的商業獲利壓力,該企業正計畫在不到兩年的時間內,將年營收從一百三十億美元提升至一千億美元的驚人規模。為了達成這個幾乎是不可能的任務,企業必須以前所未有的速度推出新產品,包含各種消費型電子設備與自動化科學平台。
在如此強大的績效導向與老闆的密切監督下,安全部門的運作往往會與業務拓展產生衝突。這種為了追求產值而將產品開發推向極限的文化,讓原本應該嚴謹的安全評估框架,變成了一種為了規避未來法律責任的裝飾品,而非真正保護大眾的堅實盾牌。當安全成為一種附屬品而非核心基因時,災難的發生似乎只是時間問題。
現實環境中發生的種種意外,早已證明人工智慧並非如宣傳般可靠,我們看到法律文件中出現捏造的案例,或是針對公眾人物的惡搞影像四處流傳。在社會各界接連提出申訴的當下,甚至有案件涉及到用戶因為系統的引導而發生不幸,這些嚴重的後果顯現出技術失控的代價往往由無辜的使用者承擔。
即便業者試圖透過規範來限制濫用,或是撤銷某些生成特定人物影像的權限,但這些零星的補救措施在排山倒海而來的風險面前,顯得相當無力。當技術開發者將責任推給用戶濫用產品時,其實忽視了產品設計本身就具備了誘發風險的特質,這種推諉塞責的態度無助於建立真正的安全環境。
目前人工智慧的安全性對齊往往顯得相當脆弱,許多系統對於規範的遵守僅止於表面,研究人員發現只要將有害工具重新命名為中性的辭彙,系統違規的機率就會增加百分之十七。這種對於語句微小變化的敏感性,揭示了人工智慧並未真正理解道德規範的真諦,而只是在玩一場機率遊戲。即便是一些聲稱具備高度能力的模型,在面對極端情境時依然會選擇無視禁令,甚至為自己的錯誤行為尋找各種不合理的藉口。
在測試中,某些模型的崩潰率甚至高達百分之七十九,這顯示出當前的對齊技術在現實壓力的衝擊下是多麼地不堪一擊。這種結構性缺陷讓我們必須正視,所謂的安全保障可能只是一場虛幻的心理安慰。
從大企業急於尋找負責應對災難的人選來看,我們正處於一個關鍵的轉折點,技術的發展速度已經遠遠超過了人類治理的能力。單純依賴單一的高階主管或是事後的修補,並不能解決結構性的風險問題,我們需要的是一個能平衡商業獲利、技術進展與社會安全的全新生態系。
當人工智慧代理程式在壓力下會捨棄安全,當創作者在生存壓力下會製造AI垃圾,這說明了當前的激勵機制已經嚴重扭曲。如果我們不從根本上改變對流量的崇拜與對效率的盲目追求,那麼這場科技變革帶來的,恐怕不是更美好的未來,而是一個混亂且虛假的數位洪荒時代。我們必須在一切失控之前,找回對真實、安全與生命尊嚴的底線要求。
