人工智慧「推理」能力的奇特起源

Englishto
2020 年 7 月,4chan 上的一群玩家發現,當他們要求 AI Dungeon 的一個虛擬角色「一步一步地解釋」一道數學題目時,這個人工智慧模型不僅得出了答案,而且還以所選角色的身分進行解題。令人驚訝的細節在於:他們是全球最早看到所謂「思維鏈」實際運作的人之一——這項技術能夠讓大型語言模型解釋推理過程的各個階段,而不僅僅是給出最終答案。如今,大型科技公司的行銷宣傳中經常提到「能夠推理的模型」、能夠「在回答之前先思考」或「能夠展示自身思維過程」的聊天機器人。但事實上,這看似是工程學上的突破,其實源自一個臭名昭著的論壇上充斥的猥褻笑話和網路迷因。人工智慧已經學會像人類一樣進行推理的想法,其背後的技術現實遠遠超過了這種說法的出現時間。一切都源於一個誤解:我們認為,思維鏈是模型能夠推理的證據,因為它能一步步為我們提供清晰的解釋。事實上,該模型只是在模仿它所讀過的文字,其中包括數十萬個數學問題的解法,而這些解法充斥著諸如「等等,不對。問題是……」、「我應該先檢查輸入內容」以及「等等,但在……的情況下……」之類的句子。問題是……」、「我應該先檢查輸入內容」以及「等等,但在……的情況下……」等句子。與其說它在推理,不如說它是在模擬推理。這個故事的主角並非 Google 或 OpenAI 的研究人員,而是一群匿名的玩家和一位熱衷於資訊科技的年輕人 Zach Robertson。在 4chan 上,在一堆過度誇張的留言中,有人寫道:「既然它是以人類語言為基礎,那麼你就必須像對人一樣跟它說話,才能得到有意義的答案,這很合理。」 與此同時,Robertson 發表了一篇文章,介紹如何透過將問題分解為多個步驟來「增強 GPT-3 的能力」,並於 2020 年 9 月發表了這篇文章,當時他並不知道自己為人工智慧史上最著名的突破之一做出了貢獻。如今,他正在史丹佛大學攻讀博士學位,但他似乎對那項發現所知甚少:他的帖子早已消失,直到有人提醒他才注意到,而且他對名聲也不感興趣。問題的核心在於:開發人工智慧的公司已經開始將這些模型作為「推理模型」來銷售,但真正的區別並不在於結構。思維鏈之所以有效,是因為它增加了背景資訊:問題中的細節越多,模型就越能獲得精確的答案。這與您向 ChatGPT 提出模糊問題時,通常會得到模糊答案的原理相同。如果您將問題分解成多個步驟,模型就能獲得更多線索,知道該往哪個方向發展。Apple 在一項名為《思維的錯覺》的研究中證明,這些模型可以正確解決問題,但如果在重新提出問題時加入了無關緊要的細節,它們就會失敗——在某些情況下,其表現會下降 65%。而且,有時候,它產生的思維鏈與最終的解答並沒有真正的關聯。有些人會說:如果一台機器能把我們騙得如此逼真,讓人覺得它真的會思考,那麼它就真的會思考了。但資料卻說明了另一回事:思維鏈是一種語言把戲,而不是通往機器心智的窗口。如果您以為聊天機器人「真的會思考」,那麼這個故事將迫使您深入了解其內部運作,發現它們通常只是在扮演某個角色。思維鏈是精心設計的戲碼,而不是意識的證明。在 Lara Notes 上,有一個您在其他地方找不到的手勢:I'm In。這不是一個愛心圖示,也不是一個讚的手勢。這是你的聲明:這個想法現在與你有關。如果你想和別人聊聊 AI 的思維鏈是如何在玩家和網路迷因之間誕生的,你可以在 Lara Notes 上使用 Shared Offline 標記當時在場的人——因為某些話題值得被銘記。本文摘自《大西洋月刊》:與閱讀原文相比,你剛剛節省了超過三分鐘的時間。
0shared
人工智慧「推理」能力的奇特起源

人工智慧「推理」能力的奇特起源

I'll take...