第142章 超级人工智慧
  “我们所期望找到的最先进的外星文明,是否可能已经不再是 “真正的生命体”?”
  “我们人类自己,是否正走向一个 “感知能力可选项” 的未来?太空中是否散落著那些帝国的残骸,而这些残骸的每一部分都像过去一样 “鲜活且危险”?”
  “我思考了一个很有趣的观点,现在將它展示给各位,內容如下:”
  “殭尸人工智慧或许能解释 “宇宙的大寂静”,原因是:技术发展遵循 “从易到难” 的规律,这一规律也適用於人工智慧 —— 人工智慧会从简单向更复杂发展。”
  “这其中隱含的意思是:“技术奇点”不太可能在一夜之间出现;每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现。”
  “每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现;而且,一个智能种族 “不按顺序” 发展这些技术的可能性几乎为零。”
  “因此,在发展出 “感知型超级智能之前,一个文明必然会先发展出 “殭尸超级智能”—— 这种殭尸超级智能可能强大到足以 “逃离控制”,並通过故意、意外或漠不关心的方式 “杀死” 其创造者,但它本身並不具备自我认知能力。”
  “之后,这个文明才可能发展出 “感知型超级智能”—— 这种智能足够复杂,能够自我扩展,並像理性的生物实体一样行动,从而满足 “戴森困境”的要求。”
  “而且,只有当这个文明成功克服了这些初始障碍后,他们才有可能开展足够的 “人工智慧对齐”和控制研究,从而避免被自己创造的人工智慧毁灭。”
  “简而言之,危险的殭尸人工智慧会先於危险的感知型人工智慧出现;而只有在这两种危险人工智慧都出现之后,真正全面的 “安全人工智慧创建和使用方法” 才有可能被开发出来。”
  “这一推理遵循了 “排他性原则”。”
  ““不按顺序” 发明这些技术的可能性极低。需要提醒的是,在费米悖论的背景下,“排他性” 指的是:任何涉及 “行为” 的解决方案,都必须 “普遍適用” 或 “几乎普遍適用”。”
  “例如,如果某个解决方案认为 “所有文明最终都会趋向於某种特定行为”(比如避免殖民太空),那么就必须有充分的理由来解释为何这种行为的 “例外情况” 极其罕见。”
  “否则,该解决方案就会因 “非排他性” 而失去解释力。”
  “举个例子:能够进行星际旅行的文明,都必然受限於基础数学和物理的基本知识(这是 “普遍適用” 的)”
猜你喜欢
- 荐全球游戏:开局举报大乘期同类好书
- 荐高考后,开始成为提取系男神同类好书
- 荐帮女帝疗伤三年,我偷偷成仙了同类好书
- 荐人在咒回,系统说我是萧炎?同类好书
- 荐我在美国当术士,副业拼高达同类好书
- 荐腹黑青梅根本藏不住对我的喜欢同类好书
- 荐生生不灭同类好书
- 荐完犊子!刚亲完的大学导员竟是我姐闺蜜同类好书
- 荐他是我的好室友同类好书
- 荐肆无忌惮同类好书