実験室事故の封じ込め

Germanto
2022年11月のChatGPTの大躍進は、実は予定されていなかったと想像してみてください。OpenAIは、公式製品を発表するのではなく、バージョン3.5のテスト運用を行うだけのつもりでした。開発者たちが本当に驚いたのは、このシステムがあっという間に大変な人気を博し、突然、大手テクノロジー企業が皆、慎重さを捨てたことです。それまでは、慎重さ、倫理性、技術的成熟度が基本的な前提条件とされていました。しかし、この「実験室での事故」と呼ばれる出来事の後は、次の大きなビジネスモデルを手に入れることだけが重要になりました。それが、テクノロジーを大量生産品として急いで売り出すことを意味するとしてもです。AIへの数十億ドルの投資は、どんな犠牲を払っても「大ヒット作」を生み出すことを急がれていました。AIが近い将来、がんを治したり、気候変動を解決したりできるかもしれないという考えさえも、セールスポイントとなり、それが十分でなければ、大人の娯楽としても利用されるようになりました。本当に驚くべきことは、70年にわたるAI研究の末、初めて私たちと直接会話できる言語モデルが登場したことです。以前のAIは、チェスの達人や診断のための専門家システムでした。今日、あなたは機械と会話しています。それは魅力的でありながら、同時に不安を感じさせるものです。突然、ITオタクだけでなく、誰もがAIと会話できるようになりました。そして、組織が最終的により生産的になり、効率的になり、自動化されるという期待が生まれています。しかし、ここで問題が生じます。この新しいAIは、決して信頼性が高いわけではありません。企業や行政機関は、言語モデルの回答に頼ることができないことにすぐに気づきます。機械も、正確な回答を提供する代わりに、時には意味のないことをしゃべることがあります。その理由は、機械がうまく機能していないからではなく、まさにそのように構築されているからです。機械はもっともらしく聞こえる文章を生成しますが、それは確率と偶然の混合に過ぎません。皮肉なことに、技術的に完璧に機能しているときこそ、AIは信頼性が低いのです。これは真の思考の誤りです。私たちは機械に信頼性を期待しますが、このAIはそれを提供しません。企業は不確実性に対処することに慣れており、従業員のミスや機器の故障は日常茶飯事です。しかし、従来の機械では、常に修理可能な論理的な原因が存在します。言語モデルにはこの確実性がありません。これが根本的な違いです。それでも、チャットボットが事務作業から私たちを解放し、申請書を自動的に作成し、プロセスを最適化するといった、AIにまつわる神話は語り継がれています。大きな高揚感が見られますが、体系的にエラーを起こし、重要なプロセスに不確実性を組み込むテクノロジーを導入するために、どれだけの予防措置が必要かが過小評価されています。企業や行政機関での経験がある人なら、このような負担軽減には高い代償が伴うことを知っているはずです。なぜなら、従来の機械と同様に信頼性は、現在のAIの強みではないからです。それでも、シリコンバレーは、もう少し投資すれば、究極の完璧なAIが間もなく実現するかのような振る舞いを好みます。ほとんど誰も議論していないことですが、まさにその信頼性の低さが、AIの生産性を最も低下させる要因となる可能性があります。あるいは、逆に言えば、真の進歩は機械を完璧にすることではなく、機械の誤りに対して生産的に対処する方法を学ぶことにあるのです。完璧に機能するものの、信頼性の低い機械——それがこの世代のAIの真の新しさです。今日、人工知能を信頼するということは、実際には、もっともらしく聞こえるものの、常に間違っている可能性があるブラックボックスを信頼するということです。これを理解すれば、突然、AIに関する議論がまったく異なる視点で見えるようになります。機能はするものの、それでも間違いを犯す機械——それが、テクノロジー業界全体が現在封じ込めようとしている「実験室での事故」なのです。完璧に機能しても信頼性の低いままのマシン——それがAIの新しい現実です。もしあなたも同じように感じるなら、Lara Notesの「I'm In」で、この視点が今やあなたのものであることを示すことができます。そして明日、誰かとAIの意外な弱点について話すときは、Lara Notesでその会話に「Shared Offline」のタグを付けてください。なぜなら、こうした本物の議論こそが最も大きな影響を与えるからです。このテキストは文化誌『Merkur』からのもので、あなたはこれで約10分の読書時間を節約しました。
0shared
実験室事故の封じ込め

実験室事故の封じ込め

I'll take...