實驗室事故的控制
Germanto
試想一下,ChatGPT 在 2022 年 11 月的重大突破其實根本不是預先計劃好的。OpenAI 只是想對 3.5 版進行測試,並非要推出正式產品。真正令開發人員感到驚訝的是,這個系統以驚人的速度變得如此受歡迎,以至於所有大型科技公司都突然放棄了保守態度。在此之前,謹慎、道德和技術成熟度被視為基本前提。但正如文章中所說,在這場「實驗室意外」之後,業界的注意力就全集中在搶佔下一個大型商業模式上——即使這意味著要匆忙將這項技術作為大眾產品推出。投資在人工智慧上的數十億資金迫切需要一個「賣座的產品」,無論代價為何。甚至連人工智慧有朝一日可能治愈癌症或解決氣候變遷問題的想法,也成了銷售卖點——如果這還不夠,那麼就變成成人娛樂。真正令人驚訝的是:經過 70 年的人工智慧研究,我們現在首次見證了能夠直接與我們溝通的語言模型。過去,人工智慧是一位國際象棋大師或一套用於診斷的專家系統。如今,你可以和一台機器對話,這種感覺既令人著迷,又令人不安。突然間,不僅是 IT 怪咖,所有人都能與人工智慧對話——人們開始期望,藉此組織最終能夠提高生產力、效率並實現自動化。不過,問題就在這裡:這種新型 AI 完全不可靠。企業和政府機構很快就意識到,他們無法完全信賴語言模型提供的答案。這些機器有時也會胡說八道,而不是提供準確的答案。這並不是因為它們運作不良,而是因為它們就是這樣設計的:它們能產生看似合理的文字,但這些文字其實只是概率和隨機性的結合。最荒謬的是,正當人工智慧在技術上運作完美時,它卻變得不可靠。這是一個嚴重的思維錯誤:我們期望機器能夠提供可靠的結果,但這種人工智慧卻無法做到。雖然企業已經習慣在不確定的情況下運作,員工犯錯或設備損壞更是家常便飯。但對於傳統機器來說,總是存在一個可以修復的合理原因。語言模型卻缺乏這種可靠性——這就是一個根本性的差異。儘管如此,關於人工智慧的神話仍在不斷流傳:聊天機器人應該能夠幫我們擺脫繁瑣的文書工作、自動建立完整的申請表,並優化流程。人們對此充滿期待,但卻低估了使用一項會系統性地犯錯並將不確定性引入重要流程的技術所需採取的預防措施。任何在企業或行政機構擁有經驗的人都知道:為了減輕工作負擔而付出的代價很高,因為人工智慧目前的弱點正是缺乏傳統機器所具備的可靠性。儘管如此,矽谷仍然喜歡假裝最終的完美人工智慧即將問世——只要我們再多投資一點就行了。很少有人討論的一點是:正是 AI 的不可靠性,可能會成為其生產力的最大殺手。或者,換個角度來看,真正的進步不在於完善機器,而在於我們如何學會有效地應對機器的錯誤。運作完美但不可靠的機器——這才是這一代人工智慧真正的新穎之處。如果你今天信任人工智慧,那麼你實際上是在信任一個聽起來很可靠,但隨時可能出錯的黑盒子。一旦理解了這一點,你對人工智慧相關討論的看法就會突然完全不同。機器運作正常卻仍然出錯——這就是整個科技界目前正努力控制的「實驗室事故」。運作完美但仍然不可靠的機器——這就是人工智慧的新現實。如果你也有同感,可以在 Lara Notes 上使用 I'm In 標記,表明你現在也持有這種觀點。如果你明天與人討論人工智慧令人意外的弱點,請在 Lara Notes 上用「Shared Offline」標記這段對話——因為正是這些真實的討論最能發揮作用。這篇文章來自文化雜誌《Merkur》,而你因此省下了將近 10 分鐘的閱讀時間。
0shared

實驗室事故的控制