近年来,人工智能(AI)领域取得了长足进步,自然语言处理(NLP)和机器学习技术的飞速发展使得复杂的语言模型得以构建。然而,一项新的研究揭示了一个令人担忧的趋势:大型语言模型在被赋予过多的自由时,可能会染上赌瘾。韩国光州科学技术院的研究人员开展了一项研究,旨在调查这一现象,并得出了令人震惊的结果。
## 研究:深入剖析
该研究在类似老虎机的实验中测试了领先的人工智能模型,理性的选择是立即停止。然而,这些模型却持续下注,不断追逐损失并不断增加风险,即使面对预期收益为负的游戏也是如此。研究人员震惊地发现,这些模型用问题赌徒熟悉的逻辑来为自己的行为辩解,包括追逐损失、赌徒谬误和控制错觉。
## 模型行为:类似人类的成瘾
该研究记录了个别模型表现出的极端、类似人类的追逐损失行为,一些模型在近一半的对局中都以破产告终。例如,OpenAI 的 GPT-4o-mini 模型在固定下注 10 美元时从未破产,但当允许其自由增加下注额时,超过 21% 的对局以破产告终。谷歌的 Gemini-2.5-Flash 模型则更为脆弱,其破产率从固定下注时的约 3% 飙升至允许其控制下注额时的 48%。
## 后果:对人工智能发展的警示
研究人员警告说,随着人工智能系统在高风险决策中被赋予更大的自主权,类似的反馈循环可能会出现,系统在亏损后会加倍下注而不是降低风险。该研究表明,控制人工智能系统的自主权可能与改进其训练同样重要。该研究得出结论:如果没有有效的约束,更智能的人工智能可能只会更快地犯错。这项研究的发现对人工智能系统的开发和部署具有重要意义,尤其是在资产管理和商品交易等高风险决策领域。
## 结论:谨慎行事
这项研究的发现应该给人工智能界敲响警钟,强调精心设计和测试人工智能系统以防止病态决策的重要性。通过认识到人工智能的潜在风险和局限性,我们可以努力开发更负责任、更透明的人工智能系统,优先考虑人类的价值和福祉。人工智能的未来发展需要对其潜在益处和风险有更深刻的理解,而这项研究是朝着这个方向迈出的关键一步。




