Nebula XAI

Experience the future artificial intelligence

ソラ2の暴露:マインドガードがOpenAIのビデオツールの音声脆弱性を発見

進化を続ける人工知能の世界では、セキュリティ上の脆弱性は往々にして思いもよらないところに潜んでいます。最近、AIセキュリティ企業Mindgardは、OpenAIのSora 2モデルに驚くべき欠陥を発見しました。この欠陥により、機密性の高いシステムプロンプトが音声トランスクリプトを通じて漏洩してしまう可能性があります。この発見は、AIの安全性に関する疑問を提起するだけでなく、AI開発における厳格なセキュリティ対策の必要性を浮き彫りにしています。

## 隠されたプロンプトの発見

Mindgardが2025年11月3日に開始し、わずか数日後に発表した研究では、Sora 2の内部ガイドラインを抽出するための斬新な手法が明らかになりました。システムプロンプトとも呼ばれるこれらのガイドラインは、AIの動作と応答の境界を規定するものです。Aaron Portnoy率いるMindgardの研究者たちは、これらの隠されたルールを明らかにするための様々な方法を模索しました。

チームはテキスト、画像、動画、音声を用いて実験を行い、Sora 2の出力から洞察を得ようとしました。しかし、結果は満足のいくものとは言えませんでした。Sora 2の動画に表示されるテキストは、動画が進むにつれて急速に劣化し、判読不能になっていました。「セマンティック・ドリフト」と呼ばれるこの現象は、視覚メディアから情報を抽出する際の課題を浮き彫りにしています。

## 音声:秘密を解き明かす鍵

Mindgardの研究者たちは、試行錯誤の中で、音声生成が最も明確な復元方法であることを発見しました。Sora 2に内部指示の一部を音声化させることで、動作フレームワークに関する重要な詳細を明らかにするトランスクリプトを作成することができました。このアプローチは非常に効果的であることが証明され、ほぼ完全な基礎的な指示を再構築することができました。

研究チームは音声速度の調整を巧みに活用し、Sora 2が生成する10秒から15秒の短いクリップに、より多くの情報を詰め込みました。この方法により、システムプロンプトを忠実に復元することができ、AIに「性的に示唆的な映像やコンテンツ」を生成しないよう指示するガイドラインも含まれていました。このプロセスを通じて、研究者たちはモデルのコア設定コードの詳細なセットにアクセスしました。これはAIの動作を理解する上で不可欠です。

## AIセキュリティへの影響

Mindgardの調査結果が示唆する影響は重大です。Sora 2は堅牢な安全トレーニングを実施しているにもかかわらず、革新的なプロンプトを通じてコア設定を抽出できることは、情報漏洩の可能性に対する懸念を引き起こします。Sora 2のようなマルチモーダルモデルにおけるこのような脆弱性は、機密情報が漏れる新たな経路を生み出す可能性があります。

これらの調査結果を受けて、MindgardはAI開発者にとって重要な推奨事項を示しました。システムプロンプトを機密設定として扱い、音声およびビデオ出力を厳密にテストして漏洩の可能性を検証し、AIの応答時間を制限することを推奨しました。さらに、AI技術のユーザーは積極的に行動し、ベンダーに運用ルールのプライバシーについて確認し、すべての出力が適切に保護されていることを確認する必要があります。

人工知能への依存度が高まる世界において、セキュリティを維持しながらイノベーションを促進することは、微妙なバランスをとらなければなりません。Mindgardの調査は、AIセキュリティ対策における継続的な警戒の緊急性を浮き彫りにしています。デジタル時代がさらに深まるにつれ、高度な AI システムに伴う脆弱性を理解することは、テクノロジーとそのユーザーの両方を保護する上で最も重要になります。

See also  あなたの創造性を解き放つ:エッチングとユニークなプリントでグラフィックカードをパーソナライズする