人機合一

Germanto
一位著名的電腦科學家曾經說過:「早在 1960 年代,人們就認為與機器交談會產生真實的情感。」」這聽起來很荒謬——但當 Joseph Weizenbaum 推出他的 ELIZA 程式時,正是發生了這種情況。ELIZA 非常簡單,只能模仿幾種對話模式,但許多使用者卻認為它就像一個真正的對話夥伴。如今,有了 ChatGPT、Claude 或 Gemini 這些工具,我們經常認為這些語言模型從頭到尾就是這樣建構起來的,彷彿它們擁有自己的個性一樣。但這完全不正確——而這正是幾乎所有人都會犯的思維錯誤。普遍的看法是:像 ChatGPT 這樣的大型語言模型只是從龐大的資料量中產生,然後幾乎就「完成」了——擁有個性、觀點,甚至可能還有某種靈魂。但實際上,成品聊天機器人產品是經過大量後期處理的結果。所謂的基礎模型,也就是經過訓練的基礎模型,還不是一個「對話夥伴」,它只能根據訓練資料提供的內容來回應。如果訓練內容主要是數學定義,那麼這個模型聽起來就像一台計算器。如果主要是 Reddit 對話,它突然之間就變得幾乎像人一樣。關鍵在於:人性並非內建的,而是「加諸其上的」。例如,伊隆·馬斯克 (Elon Musk) 的助理 Grok 甚至被明確描述為「旨在最大限度地提高真實性和客觀性」。Anthropic 將 Claude 描述為「樂於助人、誠實且無害」。基本模型本身並不具備這些特質。這些特質必須透過有針對性的微調,也就是所謂的「強化學習」過程,才能獲得;就 Anthropic 的情況而言,甚至還有 Amanda Askell 等哲學家組成的團隊,負責為聊天機器人灌輸道德特質。因此,聊天機器人的個性是一種經過設計的產物,而不是從資料中偶然發現的結果。這類模型的訓練資料是一個混雜的大雜燴:Common Crawl(一個龐大的網路摘要)、Reddit、維基百科、用於程式碼的 GitHub、ArXiv 和 PubMed 的科學論文、數位書籍——其中包含了從數學到日常用語、從精緻的文學德文到嚴重的語法錯誤等各種內容。根據不同的情境,這個模型可能看起來像一個沒有情感的機器人,也可能像一個關心你的朋友。然而,聊天機器人真正表現出「人性化」的一面時,這些時刻往往不穩定,會隨著情境而變化,而且開發人員對此的控制也有限。許多人忽視的一個細節是:人工智慧看似有人性,其實通常只是靠一些微小的語言標記來製造這種效果——例如當聊天機器人暗示情感、描述內心狀態,甚至使用表情符號時。這就是所謂的「Eliza 效應」:我們從中看出人性,因為我們希望聽到人性。有一個鮮少被討論的想法:如果人工智慧模型被刻意訓練成不人道的樣子,會發生什麼事?如果一個聊天機器人只用公式、程式碼或冰冷的官僚語言來回應,難道不會像一個過於「人性化」的機器人一樣讓我們感到困惑嗎?因此,真正的決定權在於開發人員:他們決定聊天機器人中包含多少人性元素——這並非技術上的附帶產物,而是一種道德聲明。最終,聊天機器人的個性並非訓練的副產品,而是一個有意識的設計問題。從現在開始,當你與人工智慧交談時,你會知道:你感受到的人性其實是人為設計的結果——而且明天它可能就會變得截然不同。如果這個想法一直萦繞在你心裡,你可以在 Lara Notes 上使用 I'm In 標記,表明這種關於人工智慧的新觀念已經成為你思維的一部分。如果你今晚與人討論為什麼人工智慧有時看起來像人類,有時卻又極其陌生,你可以使用 Shared Offline 記錄這段對話——這樣,你們共同思考的那一刻就會被留存下來。這是 Max Beck 在文化雜誌《Merkur》上的一篇文章——你不用花十分鐘閱讀,只需花三分鐘聆聽。
0shared
人機合一

人機合一

I'll take...