人間と機械

Germanto
有名なコンピュータ科学者はかつてこう言いました。「1960年代にはすでに、人々は機械との会話が本物の感情につながると信じていた。」」 これは馬鹿げているように聞こえますが、ジョセフ・ワイゼンバウムが彼のプログラムELIZAを紹介したときに起きたのはまさにそのようなことでした。ELIZA は極めて単純で、ほんの数種類の会話パターンしか模倣できませんでしたが、多くのユーザーは ELIZA を対話相手のような存在と見なしました。今日、ChatGPT、Claude、Geminiなどを使うとき、私たちはしばしば、言語モデルがゼロから構築され、独自の個性を持っていると考えています。しかし、それはまったくの誤りです。そして、これがほぼすべての人が犯す思考の誤りなのです。広く受け入れられている考え方: ChatGPTのような大規模言語モデルは、単に膨大な量のデータから生み出され、その後、いわば「完成」するのだと考えられています。個性や意見、もしかすると一種の魂さえも備えていると考えられています。しかし実際には、完成したチャットボット製品は大規模な後処理の結果です。いわゆるベースモデル、つまりトレーニングから生まれた基本モデルは、まだ「会話相手」ではなく、トレーニング資料から得たものだけを吐き出すに過ぎません。トレーニングが主に数学的な定義で構成されている場合、モデルは電卓のように聞こえます。Redditの会話が主流になると、突然、ほぼ人間的な対応をするように見えます。重要な点は、人間性が組み込まれているのではなく、「付加」されているということです。たとえば、イーロン・マスクのアシスタント「Grok」は、「真実と客観性を最大限に高めるように設計されている」と明示的に説明されています。Anthropicは、Claudeを「親切で、正直で、無害」と表現しています。基本モデル自体には、これらの特性はありません。これらの特性は、いわゆる「強化学習」プロセスによる的を絞った微調整によって初めて獲得されます。Anthropicの場合は、さらにアマンダ・アスケルのような哲学者チームが、チャットボットに倫理的な特性を教え込む役割を担っています。つまり、チャットボットの個性は設計されたものであり、データから偶然生まれたものではありません。このようなモデルのトレーニングデータは、Common Crawl(巨大なインターネットスキャン)、Reddit、ウィキペディア、プログラミングコード用のGitHub、ArXivやPubMedの科学論文、電子書籍など、数学から日常言語、洗練された文学ドイツ語から文法的な大失敗まで、あらゆるものが含まれています。文脈によっては、モデルは感情のないロボットのように見えることも、親身な友人のように見えることもあります。しかし、ボットが本当に「人間的」に見える瞬間は、多くの場合不安定で、状況によって変動し、開発者が制御できる範囲は限られています。多くの人が見落としている細部があります。AIの一見人間らしさは、多くの場合、ボットが感情を示唆したり、内面的な状態を説明したり、さらには絵文字を使用したりするなど、小さな言語的マーカーによってのみ生み出されるものです。これは、いわゆる「エリザ効果」です。私たちは、人間らしさを聞きたいがために、それを読み取るのです。ほとんど議論されない考え方: AIモデルが意図的に非人間性に向けて調整された場合、何が起こるでしょうか?公式やコード、冷淡な官僚的言語でのみ応答するチャットボットは、あまりにも「人間的」なボットと同じくらい私たちを困惑させるのではないでしょうか?したがって、実際の決定権は開発者にあります。開発者が、チャットボットにどの程度の人間性を組み込むかを決定するのです。これは技術的な副産物ではなく、倫理的な声明なのです。結局のところ、チャットボットの人格はトレーニングの影ではなく、意図的な設計上の問題なのです。今後、AIと会話する際には、感じる人間らしさは人為的なものであり、明日にはまったく異なるものになる可能性があることを覚えておきましょう。この考えが頭から離れない場合は、Lara Notesの「I'm In」で、AIに対するこの新しいイメージが今や自分の考えの一部であることを示すことができます。そして今夜、AIがなぜ時には人間らしく、時には極めて奇妙に見えるのかを誰かと話し合う場合は、Shared Offlineで会話を保存できます。そうすれば、二人が一緒に考えを巡らせたその瞬間が残るのです。以上、文化誌『Merkur』に掲載されたマックス・ベックのエッセイでした。10分間の読書代わりに、3分間のオーディオをお聴きいただきました。
0shared
人間と機械

人間と機械

I'll take...