Nebula XAI

Experience the future artificial intelligence

Spectrum的2023年最佳AI故事

2023年很可能是人工智能史上最狂野,最戲劇性的時代之一。

人們仍在努力理解Openai的Chatgpt的力量,該公司於2022年底推出,當時該公司於2023年3月發布了其最新的大型語言模型GPT-4(LLMS本質上是面向消費者的應用程序背後的大腦)。

到2023年春天,重要和可信的人都嚇壞了可能的負面後果 – 從某種程度上有些令人困擾,到存在的糟糕 – 不斷提高AI。首先是一封公開信,要求停止開發高級模型,然後是關於存在風險的聲明,第一次以美國行政命令和歐盟的形式進行了有關AI安全的國際峰會以及具有里程碑意義的法規。 AI行為。

據讀者花了多少時間,這是Spectrum關於AI的2023年前10篇文章。考慮一下2023年的AI風味,這很可能是歷史上的一年……除非2024年更瘋狂。

10. AI藝術發電機可能被愚弄用於製作NSFW圖像

借助文本到圖像發生器,例如Dall-E 2和穩定的擴散,用戶輸入了A個提示,描述了他們想要生成的圖像,並且該模型將完成其餘的。儘管他們有保障措施,以防止用戶產生暴力,色情和其他不可接受的圖像,但AI研究人員和黑客都很高興地弄清瞭如何避免這種保障措施。對於白帽子和黑色帽子,越獄是新的愛好。

9. Openai的月球:解決AI對齊問題

與Openai的Jan Leike一起,此Q& a探討了AI對齊問題。這就是我們可能會建立超智能AI系統的問題,該系統的目標與人類的目標不符,可能導致我們物種的滅絕。這是一個重要的問題,Openai正在專門資源來尋找依據研究的方法(因為超級智能AI系統尚不存在)。

8. Nvidia成功的秘訣

NVIDIA的AI-ACLEARTER GPU H-100可以說是技術中最熱門的硬件。該公司的首席科學家比爾·達利(Bill Dally)在一次會議上反映了將NVIDIA推向平流層的四種成分。 IEEE Spectrum Spectrum高級編輯Sam Moore寫道:“ Moore的定律是NVIDIA魔術的一小部分,新數字的格式很大。”

7. Chatgpt的幻覺可以防止成功

一個使LLM陷入困境的問題是他們習慣做事 – 尚不明顯吐口在最自信的語氣中。當人們試圖將其用於真正重要的事情(例如編寫法律摘要)時,這種習慣是一個特殊的問題。 Openai認為這是一個可解決的問題,但是一些外部專家,例如Meta Ai的Yann Lecun,不同意。

6. 2023年對AI狀態的十個基本見解,圖

這是列表中的列表!每年,Spectrum編輯器都會拆除斯坦福大學以人工智能研究所發行的大規模AI指數,將報告提煉成少數圖表,以表達最重要的趨勢。在2023年,亮點包括培訓大型模型的成本和能源需求,以及在招募博士學位和建築模型時行業對學術界的主導地位。

5.令人毛骨悚然的新數字來世行業

這是Wendy H. Wong撰寫的一本名為We,數據的出色書的摘錄。摘錄長期以來探討了作為新數字來世行業的一部分彈出的服務:一些公司提議在您滅亡後代表您發送消息,其他公司則使您能夠錄製其他人以後可以通過詢問來播放的故事問題。而且已經有一些例子,人們根據留下的數據來建立已故親人的數字複製品。

4. AI啟示錄:計分卡

當Spectrum編輯們討論了真正聰明的AI從業人員(幾十年來一直在該領域工作的人)對兩個重要問題的看法非常反對,這是多麼令人驚訝。也就是說,今天的LLMS表明AI很快將實現超人的智能,並將為Homo Sapiens提供如此超智能的AI Systems咒語。為了幫助讀者了解意見的範圍,我們匯總了一個記分卡。

3. 200年曆史的數學打開了AI的神秘黑匣子

當今AI大部分動力的神經網絡是著名的黑匣子。研究人員會給他們培訓數據並查看結果,但對之間發生的情況沒有太多了解。一組從事流體動力學的研究人員決定使用傅立葉分析,這是一種數學技術,用於識別已經存在了大約200年的模式,用於研究經過預測湍流的訓練的神經網。

2. Duolingo的AI如何學習您需要學習的內容

本文是Spectrum的Signature Deep Dives之一,這是由正在構建該技術的專家撰寫的功能文章。在這種情況下,這是語言學習應用Duolingo背後的AI團隊。他們解釋了他們如何開發鳥腦,這是一種AI系統,它藉助教育心理學和機器學習,向用戶提供了恰到好處難以保持其參與度的課程。

1.就已經平靜下來了GPT-4

Spectrum Readers的逆勢性很差,因此非常喜歡Rodney Brooks,Rodney Brooks是一個自稱為AI懷疑的人,他已經在該領域工作了數十年。布魯克斯並沒有將GPT-4作為邁向人工通用情報的一步,而是引起了LLM在從一項任務中概括到另一個任務的困難。他說:“大型語言模型擅長的是說答案聽起來應該是什麼,這與答案應該是什麼不同。”

See also  揭開AI Horizo​​n 2023:前5名生成AI創新