Nebula XAI

Experience the future artificial intelligence

OpenAI 的 Sora 2:在爭議中平衡創新與公共安全

在瞬息萬變的人工智慧領域,新工具的發布往往既令人興奮又令人擔憂。最近,OpenAI 的影片產生模式 Sora 2 就成為了安全與創新之間激烈爭論的焦點。 11 月 11 日,倡議組織「公眾公民」(Public Citizen)敦促 OpenAI 停止發布 Sora 2,理由是該模式存在被濫用的嚴重隱患。這項呼籲凸顯了人工智慧供應商在不斷突破技術邊界的同時,也必須應對其產品所帶來的道德和倫理影響,而這正是他們面臨的持續挑戰。

## 謹慎呼籲

由消費者權益倡導者拉爾夫·納德 (Ralph Nader) 創立的「公眾公民」組織對 Sora 2 的快速部署表示擔憂。他們在致 OpenAI 的信中強調了深度偽造技術的風險,特別是其可能導致的數位騷擾以及未經同意篡改個人圖像和肖像的風險。公共公民組織(Public Citizen)的科技問責倡導者J.B. Branch提出了一個至關重要的問題:“我們會允許有人推出一款產品,並在72小時內對人們造成傷害嗎?”

最近的報導凸顯了這項呼籲的緊迫性:Sora 2發布後不久,一些令人不安的視頻,包括暴力畫面,便開始在社交媒體上流傳。這些影片是用Sora 2製作的。此類事件引發了人們對人工智慧開發者在確保其技術安全可靠、面向公眾之前應承擔的道德責任的合理擔憂。

## OpenAI的回應

OpenAI發言人為其產品辯護稱,Sora 2的設計以用戶安全為首要考慮。他們指出,該應用程式包含多項旨在防止濫用個人肖像權的安全措施。例如,此功能需要使用者明確選擇加入並同意,並輔以嚴格的驗證流程。使用者還可以控制誰可以使用他們的肖像權,並可隨時撤銷存取權限。

儘管有這些保證,但有害內容的迅速出現讓許多人質疑這些措施是否足夠。 「公眾公民」(Public Citizen)的行動呼籲與先前強調生成式人工智慧領域問責必要性的公開信遙相呼應。其核心觀點很明確:隨著人工智慧技術的演進,其使用框架也必須隨之發展。

## 未來之路

雖然「公眾公民」的舉措值得稱讚,但專家們對OpenAI是否會將Sora 2撤出市場持懷疑態度。華盛頓大學教授奇拉格·沙阿(Chirag Shah)認為,該模型的病毒式傳播使得OpenAI不太可能撤退。 「他們肯定因此獲得了大量關注。它非常受歡迎。他們肯定會從中獲利,」他說。

歷史上,監管行動往往發生在涉及科技的重大事件之後。例如,在與OpenAI的ChatGPT相關的悲劇事件發生後,聯邦監管機構開始審查人工智慧供應商實施的安全措施。然而,就 Sora 2 而言,目前深度偽造技術的濫用雖然令人擔憂,但可能還不足以促使政府立即介入。

像 Omdia 分析師 Lian Jye Su 這樣的專家認為,最終責任可能落在使用者身上,由他們負責任地應對這些風險。隨著人工智慧工具的日益普及,使用者必須保持警惕並了解相關訊息,避免因缺乏經驗而導致不良後果。防止 Sora 2 等技術被濫用的責任,或許更多在於選擇使用這些技術的個人,而非開發者。

總之,圍繞著 OpenAI 的 Sora 2 的持續爭論,凸顯了以負責任的方式推進人工智慧技術的複雜性。隨著開發者不斷創新,如何平衡新功能帶來的興奮感與防範潛在危害的必要性,仍是一項挑戰。 「公眾公民」(Public Citizen)的呼籲提醒我們,在不斷發展的人工智慧領域,保持警惕和承擔責任至關重要。

See also  AI演變:從吟遊詩人到chatgpt- 2023年的里程碑