Nebula XAI

Experience the future artificial intelligence

오픈아이얼의 동영상 도구인 Sora 2에 대한 우려가 커지고 있습니다. Sora 2는 반발에 직면해 있습니다.

기술 산업은 빠르게 발전하고 있지만, 우리는 현실에 대한 통제력을 잃어가고 있는 것은 아닐까요? 오픈아이언(OpenAI)의 최신 영상 생성 도구인 소라 2(Sora 2)는 진실을 왜곡하고 대중의 인식을 조작할 수 있는 AI 생성 영상의 위험성에 대한 심각한 우려를 불러일으키고 있습니다. 이 기술이 틱톡(TikTok)과 인스타그램(Instagram) 같은 소셜 미디어 플랫폼으로 확산되면서, 시민단체와 전문가들의 비판의 목소리도 점점 커지고 있습니다.

## 소라 2의 등장

오픈아이언의 새로운 앱인 소라 2는 간단한 입력에 따라 영상을 생성할 수 있도록 설계되어 사용자들에게 즐거움을 선사합니다. 엘리자베스 2세 여왕이 랩을 하는 영상이나 누군가의 현관에 보아뱀이 찍힌 가짜 초인종 카메라 영상 등을 상상해 보세요. 이 앱은 기발하고 재미있는 콘텐츠를 얼마든지 만들어낼 수 있습니다. 하지만 이러한 창의성 뒤에는 심각한 문제가 숨어 있습니다. 이처럼 손쉽게 영상을 제작할 수 있다는 점은 AI 기술의 오용 가능성을 높여, 동의 없는 이미지와 실사처럼 보이는 딥페이크 영상의 확산을 초래할 수 있습니다.

이러한 우려는 비영리 단체인 퍼블릭 시티즌(Public Citizen)에서도 제기되었으며, 이 단체는 오픈아이언(OpenAI)에 소라 2(Sora 2)의 공개 접근을 즉시 중단할 것을 공식적으로 요구했습니다. 퍼블릭 시티즌은 샘 알트만 오픈아이언 CEO에게 보낸 서한에서 앱의 성급한 출시를 지적하며, 안전보다 시장 점유율을 우선시하는 “일관되고 위험한 행태”를 비판했습니다. 또한 소라 2가 개인의 권리와 민주주의의 안정성을 “무모하게 무시”하는 사례라고 주장했습니다.

## 사생활과 민주주의에 대한 위협

인공지능 생성 콘텐츠가 점점 더 보편화됨에 따라 사생활과 개인 보안에 미치는 영향은 아무리 강조해도 지나치지 않습니다. 퍼블릭 시티즌의 기술 정책 옹호자인 J.B. 브랜치는 민주주의에 대한 잠재적 위협이 매우 심각하다고 지적했습니다. 그는 “사람들이 자신이 보는 것을 진정으로 신뢰할 수 없는 세상으로 우리는 진입하고 있다”고 말했습니다. 이러한 우려는 사람들이 처음 접하는 이미지나 영상이 진위 여부와 관계없이 대중의 기억 속에 각인될 수 있다는 불안감을 반영합니다.

브랜치는 특히 여성을 비롯한 특정 집단에 불균형적인 영향을 미친다고 지적했습니다. 오픈아이(OpenAI)는 노골적인 콘텐츠를 차단하기 위한 조치를 취했지만, 온라인 괴롭힘 사례는 여전히 만연해 있습니다. 소라(Sora)가 생성한 영상에서 여성들이 고통스러운 상황에 처한 모습이 묘사되었다는 보고가 나오면서, 이 기술의 오용에 대한 우려가 더욱 커지고 있습니다.

## 업계 반응 및 변화 요구

오픈아이의 소라 앱 출시 이후, 특히 엔터테인먼트 업계에서 상당한 반발에 부딪혔습니다. 출시 후 오픈아이는 마틴 루터 킹 주니어와 같은 유명 인사들의 유족과 무례한 묘사를 막기 위한 협약을 체결했다고 발표하며 주목을 받았습니다. 그러나 비판론자들은 이러한 조치가 근본적인 문제의 극히 일부분만을 해결할 뿐이라고 주장합니다.

소라 앱 출시 직후 규제 당국의 신속한 조사가 이루어졌으며, 오픈아이는 주력 제품인 챗GPT(ChatGPT)와 관련해서도 유사한 비판에 직면했습니다. 최근 제기된 소송에서는 이 챗봇이 자살을 포함한 심각한 정신 건강 위기에 기여했다는 주장이 제기되었습니다. 이러한 법적 조치는 Sora 2에 대한 우려를 반영하는 것으로, 두 제품 모두 OpenAI가 철저한 테스트와 사용자 안전보다 빠른 출시를 우선시하는 경향을 보여줍니다.

시민단체 Public Citizen이 OpenAI에 Sora 2 배포 중단을 요구한 것은 기술 기업들이 혁신과 더불어 윤리적 고려를 우선시해야 할 필요성을 강조합니다. OpenAI가 유명 인사들의 분노에 대응하고 있을지 모르지만, 일반 사용자들은 성급한 기술 발전의 결과에 취약한 상태로 노출되는 경우가 많습니다.

Sora 2에 대한 논의가 계속되는 가운데, 한 가지 분명한 사실은 책임감 있는 AI 개발을 위한 노력이 그 어느 때보다 중요해졌다는 것입니다. 기술이 인류를 해치는 것이 아니라 인류에 도움이 되도록 혁신과 안전 사이의 균형을 신중하게 찾아야 합니다.

AI가 점점 더 지배하는 세상에서 위험 부담은 그 어느 때보다 높습니다. OpenAI와 같은 기업들은 사용자뿐 아니라 우리 모두의 디지털 환경의 미래를 위해 한 발짝 물러서서 접근 방식을 재평가해야 할 때입니다.

Generative AI GPT Perplexity Comet AI Semiconductor AI Sora AI Stable Diffusion