人机一体

Germanto
一位著名的计算机科学家曾经说过:“早在 20 世纪 60 年代,人们就已经认为,与机器交谈会产生真实的情感。”这听起来很荒谬——但当约瑟夫·魏森鲍姆推出他的 ELIZA 程序时,正是这种情况发生了。ELIZA 非常简单,只能模仿几种对话模式,然而,许多用户却在它身上看到了类似于对话伙伴的东西。如今,在使用 ChatGPT、Claude 或 Gemini 时,我们经常会认为,这些语言模型从一开始就被设计成拥有自己个性的样子。但事实并非如此——这就是几乎所有人都会犯的思维错误。人们普遍认为:像 ChatGPT 这样的大型语言模型只是从海量数据中产生,然后就几乎“完工”了——拥有个性、观点,甚至可能还有一种“灵魂”。但实际上,成品聊天机器人产品是大量后期处理的结果。所谓的基础模型,即经过训练的基础模型,还完全不是一个“交谈对象”,它只是根据其训练材料输出内容。如果训练内容主要是数学定义,那么这个模型听起来就像一台计算器。如果以 Reddit 对话为主,它突然间就显得近乎人性化。关键在于:人性并非内置的,而是“叠加”的。例如,伊隆·马斯克的助手 Grok 甚至被明确描述为“旨在最大限度地提高真实性和客观性”。Anthropic 将 Claude 描述为“乐于助人、诚实且无害”。基本模型本身并不具备这些特性。它们只有通过有针对性的微调,通过所谓的“强化学习”过程,才能获得这些特质——而在 Anthropic 的例子中,甚至还有一支由 Amanda Askell 等哲学家组成的团队,他们的任务是为聊天机器人灌输道德特质。因此,聊天机器人的个性是设计的产物,而不是从数据中偶然发现的结果。用于此类模型的训练数据是一种混杂无章的组合:Common Crawl(即一个庞大的互联网数据集)、Reddit、维基百科、用于获取编程代码的 GitHub、来自 ArXiv 和 PubMed 的科学论文、电子书——其中包含从数学到日常用语、从精致的文学德语到严重的语法错误的各种内容。根据不同的语境,该模型可能看起来像一个没有情感的机器人,也可能像一个关心你的朋友。但是,机器人真正表现出“人性化”特征的这些时刻往往并不稳定,会根据具体情况而变化,而且开发者对其的控制也有限。许多人忽视了一个细节:人工智能表面上的“人性”通常仅源于一些微小的语言标记——例如,当机器人暗示情绪、描述内心状态,甚至使用表情符号时。这就是所谓的“伊丽莎效应”:我们从中读出人性,因为我们希望听到人性。一个很少被讨论的想法:如果有人有意将人工智能模型训练成非人性化的模式,会发生什么?如果一个聊天机器人只用公式、代码或冷冰冰的官僚语言来回应,难道不会像一个过于“人性化”的机器人一样让我们感到不适吗?因此,真正的决定权掌握在开发者手中:他们决定聊天机器人中包含多少人性元素——这并非技术上的附带结果,而是一项道德声明。归根结底,聊天机器人的个性并非训练的副产品,而是一个有意识的设计问题。从现在开始,当你与人工智能交谈时,你就会明白:你所感受到的人性化是人为设计的结果——明天它可能就会完全不同。如果这个想法让你挥之不去,你可以在 Lara Notes 上使用“I'm In”标记,表明这种对人工智能的全新认识现已成为你思维的一部分。如果你今晚与他人讨论为什么人工智能有时显得像人类,有时又显得非常陌生,你可以使用 Shared Offline 记录下这次对话——这样,你们共同思考的这一时刻就能得到保留。以上是 Max Beck 在文化杂志《Merkur》上发表的一篇文章——您不用花十分钟阅读,只需花三分钟聆听。
0shared
人机一体

人机一体

I'll take...