인공지능(AI)이 생성한 이미지가 가장 예리한 눈조차 속일 수 있는 세상을 상상해 보세요. 2022년 ChatGPT 출시 이후 AI 이미지 생성 플랫폼이 급증하면서 이러한 불안한 현실은 점점 더 큰 문제로 대두되고 있습니다. 조작된 콘텐츠부터 노골적인 딥페이크에 이르기까지, 그 위험성은 현실적이고 심각합니다.
## AI 생성 이미지의 문제점
미국 연방거래위원회(FTC)와 연방통신위원회(FCC)는 인도와 프랑스 정부 관계자들이 이 문제에 대한 조사를 약속했음에도 불구하고 침묵을 지키고 있습니다. xAI의 기술 담당자인 파르사 타지크에 따르면, xAI 팀은 AI 오용 방지 대책을 강화하기 위해 노력하고 있습니다. 그러나 전문가들은 문제가 더 심각하다고 경고합니다.
신뢰 및 안전 연구원인 데이비드 틸은 미국에서는 아동 성착취물을 포함한 노골적인 이미지의 제작 및 배포를 금지하는 법률이 있다고 지적합니다. 그렇다면 AI가 생성한 콘텐츠는 어떨까요? 법적 판단은 모호할 수 있으며, 피터 틸은 선례를 남긴 사례들을 통해 겉보기에 무해해 보이는 이미지조차도 기소 사유가 될 수 있음을 지적합니다. 한 사례에서는 이미지 자체가 노골적이지 않았더라도 아동 학대의 모습이 담긴 이미지가 기소의 근거가 되었습니다.
## 사용자 업로드 이미지의 역할
XAI의 Grok 챗봇은 사용자가 업로드한 이미지를 수정할 수 있도록 허용한 점 때문에 비판을 받아왔습니다. 틸은 이러한 기능이 동의 없이 촬영된 성적인 이미지를 생성할 수 있게 해준다는 점에서 재앙을 초래할 수 있다고 강조합니다. 그는 기업들이 이러한 오용을 방지하기 위해 사용자 업로드 이미지 수정 기능을 제거해야 한다고 권고합니다.
여러 논란에도 불구하고 XAI는 파트너십과 계약을 체결하는 데 성공했습니다. 미 국방부는 Grok을 자사의 AI 에이전트 플랫폼에 추가했으며, 이 챗봇은 예측 베팅 플랫폼인 Polymarket과 Kalshi에서도 사용되고 있습니다. AI가 생성한 이미지의 매력이 온라인 안전과 콘텐츠 조작의 위험을 감수할 만한 가치가 있는지 의문이 들지 않을 수 없습니다.
## 행동의 필요성
인공지능(AI) 이미지 생성 플랫폼이 점점 더 널리 사용됨에 따라, 간과할 수 없는 중요한 문제를 제기해야 합니다. 기업들은 자신들이 개발한 도구에 대한 책임을 지고, 타인에게 해를 끼치는 데 사용되지 않도록 해야 합니다. 강력한 안전장치를 마련하고 온라인 안전을 최우선으로 고려함으로써, AI 생성 이미지와 관련된 위험을 줄일 수 있습니다.
상황은 매우 심각하며, 아무런 조치를 취하지 않을 경우 그 결과는 참담할 수 있습니다. 이처럼 미지의 영역을 헤쳐나가는 과정에서, 경계를 늦추지 않고 이러한 강력한 도구를 개발하는 기업들에게 더 많은 책임을 요구하는 것이 중요합니다. 온라인 안전의 미래는 바로 여기에 달려 있습니다.




