Nebula XAI

Experience the future artificial intelligence

OpenAI 的 Sora 2:在争议中平衡创新与公共安全

在瞬息万变的人工智能领域,新工具的发布往往既令人兴奋又令人担忧。最近,OpenAI 的视频生成模型 Sora 2 就成为了安全与创新之间激烈争论的焦点。11 月 11 日,倡导组织“公众公民”(Public Citizen)敦促 OpenAI 停止发布 Sora 2,理由是该模型存在被滥用的严重隐患。这一呼吁凸显了人工智能供应商在不断突破技术边界的同时,也必须应对其产品所带来的道德和伦理影响,而这正是他们面临的持续挑战。

## 谨慎呼吁

由消费者权益倡导者拉尔夫·纳德 (Ralph Nader) 创立的“公众公民”组织对 Sora 2 的快速部署表示担忧。他们在致 OpenAI 的信中强调了深度伪造技术的风险,特别是其可能导致的数字骚扰以及未经同意篡改个人图像和肖像的风险。公共公民组织(Public Citizen)的科技问责倡导者J.B. Branch提出了一个至关重要的问题:“我们会允许有人推出一款产品,并在72小时内对人们造成伤害吗?”

最近的报道凸显了这一呼吁的紧迫性:Sora 2发布后不久,一些令人不安的视频,包括暴力画面,便开始在社交媒体上流传。这些视频是用Sora 2制作的。此类事件引发了人们对人工智能开发者在确保其技术安全可靠、面向公众之前应承担的道德责任的合理担忧。

## OpenAI的回应

OpenAI发言人为其产品辩护称,Sora 2的设计以用户安全为首要考虑。他们指出,该应用程序包含多项旨在防止滥用个人肖像权的安全措施。例如,该功能需要用户明确选择加入并同意,并辅以严格的验证流程。用户还可以控制谁可以使用他们的肖像权,并可随时撤销访问权限。

尽管有这些保证,但有害内容的迅速出现让许多人质疑这些措施是否足够。“公众公民”(Public Citizen)的行动呼吁与此前强调生成式人工智能领域问责制必要性的公开信遥相呼应。其核心观点很明确:随着人工智能技术的演进,其使用框架也必须随之发展。

## 未来之路

虽然“公众公民”的举措值得称赞,但专家们对OpenAI是否会将Sora 2撤出市场持怀疑态度。华盛顿大学教授奇拉格·沙阿(Chirag Shah)认为,该模型的病毒式传播使得OpenAI不太可能撤退。“他们肯定因此获得了大量关注。它非常受欢迎。他们肯定会从中获利,”他说道。

历史上,监管行动往往发生在涉及技术的重大事件之后。例如,在与OpenAI的ChatGPT相关的悲剧事件发生后,联邦监管机构开始审查人工智能供应商实施的安全措施。然而,就 Sora 2 而言,目前深度伪造技术的滥用虽然令人担忧,但可能还不足以促使政府立即介入。

像 Omdia 分析师 Lian Jye Su 这样的专家认为,最终责任可能落在用户身上,由他们负责任地应对这些风险。随着人工智能工具的日益普及,用户必须保持警惕并了解相关信息,避免因缺乏经验而导致不良后果。防止 Sora 2 等技术被滥用的责任,或许更多地在于选择使用这些技术的个人,而非开发者。

总之,围绕 OpenAI 的 Sora 2 的持续争论,凸显了以负责任的方式推进人工智能技术的复杂性。随着开发者不断创新,如何平衡新功能带来的兴奋感与防范潜在危害的必要性,仍然是一项挑战。“公众公民”(Public Citizen)的呼吁提醒我们,在不断发展的人工智能领域,保持警惕和承担责任至关重要。

Generative AI GPT Perplexity Comet AI Semiconductor AI Sora AI Stable Diffusion