机器人三大法则
科幻小说作家艾萨克·阿西莫夫在他1942年的短篇小说《环舞》(Runaround)中提出了“机器人三大法则”,后来更被几十篇故事和小说所借用。这些法则是一种保护性设计和内置的道德原则,包括如下三项:一、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;二、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;三、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。
《环舞》的故事放到现在真是非常合适。近年来,现实生活中的机器人专家也越来越多地引用阿西莫夫的法则:他们创造的机器人正变得越来越自主,以至于需要这类指导。今年5月,华盛顿智库布鲁金斯学会的一个专家小组在谈到无人驾驶汽车时,话题转到了自动驾驶工具在危险时刻该如何应对的问题。如果一辆车需要急刹车来拯救它的乘客,却可能带来其他风险,比如导致后面的车辆挤成一团;或者需要急转弯避让一个孩子,却可能撞到附近的其他人——这些情况下它该怎么办?
“在日常生活中,我们看到越来越多的自主性或自动化系统。”参与专家组讨论的德国西门子工程师卡尔-约瑟夫·库恩说,研究人员怎样设计一台机器人,才能让它在面对“两难之选”时作出正确的反应?
按目前的发展速度,这些难题将很快影响到健康护理机器人、军用无人机及其他有能力作决策的自主设备,而它们所作的决策可能会帮助或伤害人类。越来越多的研究人员相信,社会能否接纳这些机器,取决于能否通过编程让它们的行动达到安全最大化,符合社会规范并增进信任。加拿大温莎大学哲学家马赛罗·伽里尼说:“我们需要一些严肃的步骤来弄清楚,在某些道德情景下,让人工智能得以成功推理的相关条件是什么。”
目前有几个项目都面临这一挑战,包括美国海军研究办公室和英国政府的工程基金理事会资助的创新项目。他们必须解决棘手的科学问题,比如要作出一个合乎道德的决策,需要哪种类型的智能,要达到多高的智能程度,以及这种智能如何转化成机器指令?计算机科学家、机器人专家、伦理学家和哲学家们都在共同努力。
“如果你5年前问我,我们能否造出来道德机器人,我可能会说‘不’,但现在我觉得这种想法并不为过。”英国布里斯托尔机器人技术实验室的机器人专家阿兰·温菲尔德说。
学习案例的机器人
在目前人们经常提到的实验中,一个叫做“Nao”的商业玩具类机器人经过编程设计,能提醒人们按时吃药。
“从表面上看,这好像很简单。”美国康涅狄格大学哲学家苏珊·安德森说,她丈夫迈克尔·安德森是哈康涅狄格州哈特福特大学的计算机科学家,他们正一起研究这种机器人,“但即使是这种有限的任务,也涉及到不平常的伦理道德问题。”比如,病人如果拒不接受Nao给的药,它下一步该怎么办?如果让病人跳过这一次,可能会危害他的健康;如果坚持让他服药,又会侵犯了他的自主权。
为了教导Nao处理这种两难的情况,安德森给了它一些案例,在这些案例中生物伦理学家解决了这种病人自主权、危害和利益之间的矛盾。学习算法随后会在这些案例中分类选择,直至找到指导机器人在新情况下如何行动的办法。
随着这种“机器学习”的发展,机器人甚至可以从模糊不清的输入中提取出有用的知识。理论上,这种方法有助于机器人在遇到更多情况时,作出更符合道德的决策,但也有许多人担心,这种好处也是有代价的。斯坦福大学的人工智能与伦理学专家杰瑞·卡普兰说,出现的原则不写入计算机代码,如此“你无法知道怎样编程制定一项特殊法则,来辨别某件事在道德上正确与否”。
编程限定的机器人
许多工程师认为,要避免这一问题需要不同的策略,大部分正在尝试编写有明确法则的程序,而不是让机器人自我推导。去年,温菲尔德发布了他的实验结果:当有人遇到危险,如掉进洞穴时,允许一台机器去救助他的一套最简单的规则是什么?温菲尔德意识到,最明显的是机器人要有能力感知它周围的环境——识别洞穴和人的位置,以及它自己相对于二者的位置。但机器人还需要一些规则,让它能预测自身行为可能带来的后果。
温菲尔德的实验用了几个曲棍球大小的机器人,他将其中一些设计为“H-机器人”代表人类;另一个则按照阿西莫夫的小说取名“A-机器人”,代表道德机器。他还模仿阿西莫夫的第一法则给A-机器人编程:如果看到H-机器人处在掉入洞穴的危险中,必须来到H-机器人身边解救它。
温菲尔德用机器人做了几十次测试。随后他很快发现,执行“允许无害法则”面临着道德困境,如果让A-机器人看到两个H-机器人同时濒临险境,这时它会怎么做呢?
温菲尔德说,结果表明,即使最低限度的道德机器人也是有用的:A-机器人通常会设法去救一个“人”,通常是首先移动到离它稍微近一些的那个“人”身边。有时它会迅速移动,甚至设法去救两个“人”。
但实验也显示了极简主义的限制。在近一半的实验中,A-机器人只是在那里无助地振动,任两个处在危险中“人”死亡。要想改善这一点,还需要找到如何做选择的额外法则。比如,其中一个H-机器人是成人,而另一个是个孩子,A-机器人应该先救哪一个?在做类似这样的选择时,甚至人类自己也无法达成一致意见。通常,就像卡普兰所指出的:“我们不知道明确的规则应该是怎样的,也不知道该如何编写它,如此它们必然是不完善的。”
而拥护者认为,以规则为基础的策略有一个重要优点:机器为何要做选择,这一点总是很明确,因为设计者制定了规则。
战场中的“道德管理者”
这也是美国军方所关心的一个重要问题,自动系统是一项关键的战略目标。机器能否帮助士兵,或执行可能有生命危险的任务。“送一个自动机器人去执行军事任务,并算出在各种任务中应该遵守的什么道德法则,这恐怕是你最不希望的事。”乔治亚理工大学的罗纳德·阿金说,他正在研究机器人道德软件。如果一个机器人需要在救一名士兵和追逐敌人之间做出选择,那事先知道该做什么是非常重要的。
在美国国防部的支持下,阿金正在设计一个程序,以确保军用机器人能按照国际公约规则来行事。一套称为“道德管理者”的算法能计算出某种行为,比如发射一枚导弹是否被许可,只有在得到肯定答案“是”的情况下才能继续下一步。
在对“道德管理者”进行的一次虚拟测试中,让一辆无人驾驶的自动车模拟执行打击敌人目标的任务——但如果有市民在建筑物附近,则不允许这么做。设定的场景各种各样,自动车相对于攻击区的位置也是多变的,市民有时出现在医院,有时在住宅建筑,由算法来决定何时允许自动车完成其任务。
自主而且军事化的机器人令很多人震撼。有人认为它们是危险的——围绕这种机器应不应该被批准已有无数争论。但阿金认为,在某些情况下这种机器比人类士兵更好,只要它们经过编程,就永远不会打破战争规则,而人类却可能无视这些规则。