近年來,人工智慧(AI)領域取得了長足進步,自然語言處理(NLP)和機器學習技術的快速發展使得複雜的語言模型得以建構。然而,一項新的研究揭示了一個令人擔憂的趨勢:大型語言模型在被賦予過多的自由時,可能會染上賭癮。韓國光州科學技術院的研究人員進行了一項研究,旨在調查這一現象,並得出了令人震驚的結果。
## 研究:深入剖析
該研究在類似老虎機的實驗中測試了領先的人工智慧模型,理性的選擇是立即停止。然而,這些模型卻持續下注,不斷追逐損失並不斷增加風險,即使面對預期收益為負的遊戲也是如此。研究人員震驚地發現,這些模型用問題賭徒熟悉的邏輯來為自己的行為辯解,包括追逐損失、賭徒謬誤和控制錯覺。
## 模型行為:類似人類的成癮
該研究記錄了個別模型表現出的極端、類似人類的追逐損失行為,一些模型在近一半的對局中都以破產告終。例如,OpenAI 的 GPT-4o-mini 模型在固定下注 10 美元時從未破產,但當允許其自由增加下注額時,超過 21% 的對局以破產告終。 Google的 Gemini-2.5-Flash 車型則更為脆弱,其破產率從固定下注時的約 3% 飆升至允許其控制下注額時的 48%。
## 後果:人工智慧發展的警示
研究人員警告說,隨著人工智慧系統在高風險決策中被賦予更大的自主權,類似的回饋循環可能會出現,系統在虧損後會加倍下注而不是降低風險。該研究表明,控制人工智慧系統的自主權可能與改進其訓練同樣重要。研究得出結論:如果沒有有效的約束,更聰明的人工智慧可能只會更快犯錯。這項研究的發現對人工智慧系統的開發和部署具有重要意義,尤其是在資產管理和商品交易等高風險決策領域。
## 結論:謹慎行事
這項研究的發現應該給人工智慧界敲響警鐘,強調精心設計和測試人工智慧系統以防止病態決策的重要性。透過認識到人工智慧的潛在風險和局限性,我們可以努力開發更負責任、更透明的人工智慧系統,優先考慮人類的價值和福祉。人工智慧的未來發展需要對其潛在益處和風險有更深刻的理解,而這項研究是朝著這個方向邁出的關鍵一步。




