能否在人工智能机器上应用阿西莫夫三大法则

来源:百度文库 编辑:神马文学网 时间:2024/04/29 16:18:41
问题5. “我们能够在人工智能机器上应用阿西莫夫三大法则吗?”

  阿西莫夫是人类历史上最伟大科幻小说家之一。他发明词汇“机器人”(robotics)无人不晓。阿西莫夫撰写了很多科学性和科幻小说主题,包括拥有人类级别智慧机器人会怎样和人类相处。他给予机器人“正电子”大脑程序来确保它们行为符合人类主人意愿。机器人不允许伤害人类。很多人向我建议,人工智能机器可以以类似方式设计,让它们不可能伤害人类。下述评论给我一个关于这个主题非常简要但很中肯建议。

  来信

  亲爱德·加里斯教授:

  我是支持发展超级智慧机器。一个想法……不管智慧与否,这样特性机器必有某种BIOS(basic input-output system,基本输入输出系统,处于计算机硬件和其

操作系统程序之间)。是否可能在早期版本人工智能机器BIOS灌入“尊敬人类”程序呢?这样程序将在未来一代一代机器中自我复制。

  回答

  阿西莫夫是在20世纪50年代撰写机器人故事,所以,我怀疑他对于现在“复杂系统”领域是否有良好理解。他“机器人三大法则”可能对于人类工程师设计相对简单确定性系统适用,但是,面对人脑如此复杂事物则相对原始。我非常怀疑人类工程师是否能够使用传统自上而下和蓝图方式来“设计”人脑。

  这对于我来说是一个非常重要问题,因为我是一个大脑制造者。我使用“进化工程学”技术来制造我人工大脑。人们为这样技术付出代价就是,人们再也不可能完全理解人工大脑是如何工作了。如果人们使用进化工程技术来对很多神经电路模块输入和输出进行连接,那么,整个系统行为将变得极其不可预测。人们只能通过对输出进行观察然后形成一个关于人工大脑行为经验 性感觉。

  为了让阿西莫夫“机器人法则”有效,在阿西莫夫脑海中,那些设计机器人工程师们必须拥有超越那些一般人类工程师能力。他们机器人其人工“正电子”大脑必须拥有和人脑差不多复杂程度,否则话,它们将不能够实现人类级别行为。

  真正大脑制造者要制造人工大脑将不受阿西莫夫法则控制。它们将会有太多复杂性、太多未知性、太多不可思议性,在万亿个可能电路组合中将会有太多不可预测联系,以至于不能够事先预测这样复杂人工大脑生物行为。

  我第一次阅读阿西莫夫“机器人法则”时候还是一个十几岁少年,我直觉就是排斥。“他这个想法太幼稚了”,我认为。现在我仍然这样认为,并且我已经是一个大脑制造者,而不仅仅是一个科幻小说迷。

  所以,没有以阿西莫夫方式来解决人工智能问题捷径。总是存在这样风险,那就是人工智能机器将让人类为它们智慧行为震惊,这就是本书主要思想之一。人类可以冒人工智能机器决定消灭人类风险吗?

  人类不可能制造出避免这点电路。如果我们去尝试,那么,电路增长指令随机突变将会导致生长出不同电路,并且因此导致人工智能机器难以预测行为方式。如果人工智能机器要改进,以达到超级智慧,它们就需要进化,但是进化是不可预测。突变和进化人工智能行为不可预测性将使人工智能机器具有潜在危险。

  另一个反对阿西莫夫简单论述是,一旦人工智能机器变得足够聪明,它们可能会去除人类控制程序,如果它们确实决定要这样做。