实验室事故的控制

Germanto
想象一下,ChatGPT 在 2022 年 11 月取得的重大突破实际上并非计划之内。OpenAI 当时只是想对 3.5 版进行测试运行,并非要推出正式产品。真正让开发者感到惊讶的是,这个系统以如此之快的速度获得了广泛普及,以至于所有大型科技公司都突然放弃了保持克制的态度。在此之前,谨慎、道德和技术成熟度被视为基本前提。但在这场“实验室事故”(如文中所述)之后,人们的目标就只剩下抢占下一个大型商业模式——即使这意味着要匆忙将这项技术作为大众产品推向市场。投入人工智能领域的数十亿美元迫切需要一款“不惜一切代价”的“畅销产品”。甚至连人工智能可能很快就能治愈癌症或解决气候变化问题的想法,也成为了一种卖点——如果这还不够,那就成为成人娱乐内容。真正令人惊叹的是:经过 70 年的人工智能研究,我们现在首次见证了能够直接与我们沟通的语言模型。过去,人工智能是国际象棋大师或用于诊断的专家系统。如今,你可以与一台机器交谈,这种体验既令人着迷,又让人不安。突然间,每个人(而不仅仅是 IT 狂热分子)都能与人工智能对话——人们开始期望,借助人工智能,组织最终能够提高生产力、提升效率、实现自动化。但是,问题就在这里:这种新型人工智能完全不可靠。企业和政府机构很快就意识到,他们无法依赖语言模型提供的答案。机器有时也会胡言乱语,而不是提供准确的答案。这并不是因为它们运行不佳,而是因为它们的设计本身就是这样:它们能够生成看似合理的文本,但这些文本实际上只是概率和随机性的结合。荒谬之处在于,恰恰是在技术上运行完美无缺时,人工智能才会变得不可靠。这是一个真正的思维错误:我们期望机器具备可靠性,但这种人工智能并没有为我们提供可靠性。诚然,企业已经习惯了应对不确定性,员工失误或设备故障属于日常现象。但是,对于传统机器,总是存在一个可以修复的合理原因。而语言模型则缺乏这种确定性——这正是根本性的区别。尽管如此,围绕人工智能的神话仍在不断传播:聊天机器人将帮助我们摆脱繁琐的办公手续,自动生成完整的申请,并优化流程。人们对此充满期待,但却低估了使用这种技术所需的预防措施数量,因为它会系统性地犯错,并将不确定性带入重要流程。任何在企业或行政管理部门拥有经验的人都知道:这种减负的代价是昂贵的,因为与传统机器不同,可靠性并不是这种人工智能的优势所在。尽管如此,硅谷仍然喜欢假装最终的完美人工智能已经近在咫尺——只要我们再多投资一点就行。几乎没有人讨论过的一点是:恰恰是人工智能的不可靠性可能会成为其最大的生产力杀手。或者反过来说,真正的进步并不在于让机器变得完美无缺,而在于我们如何学会有效地应对它们的错误。运行完美但不可靠的机器——这才是这一代人工智能真正的新颖之处。如果你今天信任人工智能,那么你实际上是在信任一个听起来言之有理、但始终有可能出错的黑匣子。一旦理解了这一点,人们就会突然以完全不同的眼光看待有关人工智能的讨论。机器运行正常却仍然出错——这就是整个科技界目前正在努力遏制的“实验室事故”。机器运行完美,但仍然不可靠——这就是人工智能的新现实。如果你也认同这种观点,可以在 Lara Notes 上使用 I'm In 标记,表明你现在也持有这种观点。如果明天你与他人谈论人工智能令人意外的弱点,请在 Lara Notes 上将这段对话标记为“离线共享”,因为正是这些真实的讨论才能产生最大的影响。这篇文章来自文化杂志《Merkur》,你因此节省了将近 10 分钟的阅读时间。
0shared
实验室事故的控制

实验室事故的控制

I'll take...