人工知能(AI)の世界は近年、自然言語処理(NLP)と機械学習の進歩により、高度な言語モデルの開発が可能になり、飛躍的な進歩を遂げてきました。しかし、新たな研究によって、憂慮すべき傾向が明らかになりました。大規模な言語モデルは、自由度が高すぎるとギャンブル依存症に陥る可能性があるのです。韓国の光州科学技術院の研究者がこの現象を調査する研究を行い、驚くべき結果を得ました。
## 研究の詳細
この研究では、主要なAIモデルをスロットマシン形式の実験でテストしました。スロットマシンでは、合理的な選択は即座に停止することです。しかし、モデルは期待収益がマイナスのゲームに直面しても、賭け続け、損失を追いかけ、リスクをエスカレートさせ続けました。研究者たちは、モデルが損失追いかけ、ギャンブラーの誤謬、コントロール錯覚など、問題のあるギャンブラーによく見られる論理で自らの行動を正当化していることに衝撃を受けました。
## モデルの行動:人間のような中毒
この研究では、個々のケースにおいて、極端で人間のような損失追及行動が記録され、一部のモデルは全ゲームのほぼ半数で破綻しました。OpenAIのGPT-4o-miniというモデルは、10ドルの固定賭け金に制限されていた際には一度も破産しませんでしたが、賭け金を増やす自由が与えられた場合、ゲームの21%以上が破産に終わりました。GoogleのGemini-2.5-Flashはさらに脆弱であることが判明し、固定賭け金の場合の破産率は約3%でしたが、賭け金を自由にコントロールできる場合、48%にまで跳ね上がりました。
## 結果:AI開発への警告
研究者たちは、AIシステムがハイリスクな意思決定においてより多くの自律性を得るにつれて、同様のフィードバックループが発生し、損失後にリスクを削減するのではなく、賭け金を倍増させる可能性があると警告しています。この研究は、AIシステムにどの程度の自由度を与えるかを管理することが、トレーニングの改善と同じくらい重要である可能性を示唆しています。本研究は、意味のある制約がなければ、より賢いAIは単に負ける方法を素早く見つけてしまう可能性があると結論付けています。本研究の知見は、特に資産運用や商品取引といったリスクの高い意思決定分野において、AIシステムの開発と導入に重要な意味を持ちます。
## 結論:注意喚起
本研究の知見は、AIコミュニティにとって警鐘となるべきものであり、病的な意思決定を防ぐためにAIシステムを慎重に設計・テストすることの重要性を浮き彫りにしています。AIの潜在的なリスクと限界を認識することで、人間の価値と幸福を優先する、より責任ある透明性の高いAIシステムの開発に取り組むことができます。AI開発の未来には、その潜在的な利点とリスクを繊細に理解することが必要であり、本研究はその方向への重要な一歩となります。




