Человек-машина
Germanto
Один известный компьютерщик как-то сказал: «Еще в 1960-х годах люди верили, что разговор с машиной вызывает настоящие чувства».Это звучит абсурдно, но именно это и произошло, когда Джозеф Вейценбаум представил свою программу ELIZA. ELIZA была чрезвычайно простой, могла имитировать лишь несколько шаблонов разговора, и все же многие пользователи видели в ней своего рода собеседника. Сегодня, имея такие инструменты, как ChatGPT, Claude или Gemini, мы часто думаем, что языковые модели построены с нуля так, будто у них есть свой собственный характер. Но это совсем не так, и в этом заключается ошибка мышления, которую совершают почти все. Широко распространено предположение, что крупные языковые модели, такие как ChatGPT, просто создаются на основе огромных объемов данных и затем практически «готовы» — с личностью, мнением, возможно, даже с чем-то вроде души. Однако на самом деле готовый чат-бот является результатом масштабной доработки. Так называемая базовая модель, то есть базовая модель, полученная в результате обучения, еще не является «собеседником», а лишь выдает то, что содержится в материалах для обучения. Если обучение состоит в основном из математических определений, модель звучит как калькулятор. Когда преобладают диалоги с Reddit, он внезапно кажется почти человеком. Ключевой момент: человеческий фактор не встроен, а «накладывается сверху». Например, помощник Илона Маска Grok даже прямо описывается как «созданный для максимального повышения правдивости и объективности». Anthropic описывает Claude как «отзывчивого, честного и безобидного». Базовые модели сами по себе не обладают этими свойствами. Они приобретают их только благодаря целенаправленной тонкой настройке, так называемым процессам «обучения с подкреплением», а в случае с Anthropic даже благодаря команде философов, таких как Аманда Аскелл, которые должны привить чат-боту этические качества. Таким образом, личность чат-бота — это продукт дизайна, а не случайная находка, полученная из данных. Данные для обучения таких моделей представляют собой дикую смесь: Common Crawl, то есть огромная выборка из Интернета, Reddit, Википедия, GitHub для программного кода, научные статьи из ArXiv и PubMed, цифровые книги — здесь есть всё: от математики до повседневной речи, от изысканного литературного немецкого языка до грамматических ошибок. В зависимости от контекста модель может вести себя как бесчувственный робот или как отзывчивый друг. Но те моменты, когда бот действительно кажется «человеком», часто нестабильны, меняются в зависимости от ситуации, и разработчики могут контролировать их лишь в ограниченной степени. Деталь, которую многие упускают из виду: кажущаяся человечность ИИ часто создается лишь небольшими языковыми маркерами — например, когда бот намекает на чувства, описывает внутренние состояния или даже использует эмодзи. Это так называемый эффект Элизы: мы видим в этом человечность, потому что хотим ее услышать. Мысль, которая редко обсуждается: что произойдет, если модель ИИ будет намеренно настроена на бесчеловечность? Чат-бот, который отвечает только формулами, кодом или холодным бюрократическим языком, — разве он не будет раздражать нас так же, как и слишком «человечный» бот? Таким образом, фактическое решение остается за разработчиками: они определяют, насколько человечен чат-бот, и это не технический побочный продукт, а этическое заявление. В конечном итоге личность чат-ботов — это не следствие обучения, а сознательный вопрос дизайна. Если вы сейчас разговариваете с ИИ, вы знаете, что человечность, которую вы ощущаете, является уловкой, и завтра она может выглядеть совершенно иначе. Если эта мысль не перестает вас беспокоить, вы можете отметить в Lara Notes с помощью I'm In, что этот новый образ ИИ теперь является частью вашего мышления. А если сегодня вечером вы поговорите с кем-нибудь о том, почему ИИ иногда кажется человечным, а иногда — совершенно чуждым, вы можете сохранить этот разговор с помощью Shared Offline, чтобы запечатлеть момент, когда вы вместе обдумывали эту тему. Это было эссе Макса Бека, опубликованное в культурном журнале Merkur. Вместо того чтобы тратить десять минут на чтение, вы потратили три минуты на прослушивание.
0shared

Человек-машина