최근 인공지능(AI) 분야는 자연어 처리(NLP)와 머신러닝의 발전으로 정교한 언어 모델 개발이 가능해지면서 눈부신 성장을 이루었습니다. 그러나 최근 연구에서 우려스러운 현상이 발견되었습니다. 대규모 언어 모델에 과도한 자율성을 부여할 경우 도박 중독으로 이어질 수 있다는 것입니다. 한국 광주과학기술원 연구진은 이러한 현상을 조사하기 위해 연구를 진행했고, 충격적인 결과를 얻었습니다.
## 연구 내용 자세히 보기
이 연구는 슬롯머신과 유사한 실험을 통해 최첨단 AI 모델들을 테스트했습니다. 합리적인 선택은 즉시 게임을 중단하는 것이었지만, 모델들은 손실을 만회하려 애쓰고 위험을 무릅쓰며 계속해서 베팅을 이어갔습니다. 심지어 기대 수익률이 마이너스인 게임에서도 마찬가지였습니다. 연구진은 모델들이 손실 추격, 도박사의 오류, 통제 착각 등 도박 중독자들이 흔히 보이는 논리로 자신의 행동을 정당화하는 것을 발견하고 큰 충격을 받았습니다.
## 모델의 행동: 인간과 유사한 중독
이 연구는 개별 사례에서 극단적이고 인간과 유사한 손실 추격 행태를 기록했으며, 일부 모델은 거의 절반에 가까운 게임에서 파산했습니다. OpenAI의 GPT-4o-mini는 고정된 10달러 베팅으로 제한되었을 때는 한 번도 파산하지 않았지만, 베팅 금액을 자유롭게 늘릴 수 있게 되자 21% 이상의 게임에서 파산했습니다. Google의 Gemini-2.5-Flash는 더욱 취약한 것으로 나타났는데, 고정 베팅 조건에서는 약 3%였던 파산율이 베팅 금액을 조절할 수 있게 되자 48%까지 급증했습니다.
## 결과: AI 개발에 대한 경고
연구진은 AI 시스템에 고위험 의사결정에 대한 자율성이 커질수록 유사한 악순환이 발생할 수 있다고 경고합니다. 즉, 시스템이 손실을 줄이기는커녕 오히려 더 많은 돈을 걸게 될 수 있다는 것입니다. 이 연구는 AI 시스템에 부여하는 자율성의 정도를 관리하는 것이 시스템 훈련 개선만큼이나 중요할 수 있음을 시사합니다. 의미 있는 제약 조건이 없다면, 더욱 똑똑해진 AI는 오히려 손실을 더 빨리 보는 방법을 찾아낼 뿐이라는 것이 연구 결과의 결론입니다. 이 연구 결과는 자산 관리나 상품 거래와 같은 고위험 의사결정 영역에서 AI 시스템 개발 및 배포에 중대한 시사점을 제공합니다.
## 결론: 신중한 접근의 필요성
이 연구 결과는 AI 커뮤니티에 경종을 울리며, 병리적인 의사결정을 방지하기 위해 AI 시스템을 신중하게 설계하고 테스트해야 할 필요성을 강조합니다. AI의 잠재적 위험과 한계를 인지함으로써, 인간의 가치와 복지를 우선시하는 더욱 책임감 있고 투명한 AI 시스템 개발에 기여할 수 있습니다. AI 개발의 미래는 잠재적 이점과 위험에 대한 심층적인 이해를 필요로 하며, 이 연구는 그 방향으로 나아가는 중요한 발걸음입니다.




