机器人也懂伦理(2-2)

機器人也懂倫理(2/2)

不久之后,拥有自主能力的机器人就会在我们的生活中扮演重要角色,但是在此之前,它们要先学会遵守规範才行。

(续前文)

由範例学伦理

假设我们能将伦理规则输入机器人,那幺应该输入谁的伦理规则呢?毕竟到目前为止,还没有人能够提出放诸四海皆準的通用伦理原则,让真正的人类遵守。但机器人通常是在特定某些地点工作,在这个前提下决定行为伦理参数,会比制订通用规则来判定行为是否合乎伦理简单得多,而后者其实就是伦理学家想做的事。不仅如此,在描述机器人可能运作的各种背景下发生特定状况时,针对哪些事情在伦理上允许、哪些不允许,伦理学家也大多有共识;如果没有这类共识,就不该让机器人自行做决定。

研究人员已经提出很多种拟定机器人行为规则的方法,大多是透过人工智慧技术。举例来说,日本北海道大学的荒木健治(Kenji Araki)和瑞普卡(Rafal Rzepka)在2005年提出了「民主式演算法」。这种方法是在网路上发掘资讯,看看一般人认为哪些行为在伦理上可以接受,再使用统计分析,针对新问题找出答案。2006年,加拿大温莎大学安大略分校的瓜利尼(Marcello Guarini)提出以现有的案例训练类神经网络,让机器人之后在类似的状况下能辨识并选择合乎伦理的决定。类神经网络是效法人类大脑学习方式的演算法,能学习如何处理资讯,而且处理效率会越来越高。

从研究结果看来,我们认为伦理决策必须在数种责任间取得平衡,伦理学家称这些责任为初步责任(prima facie duty)。我们通常会将这些责任全部负起,但某个责任在某些时候可能会被另一个推翻。举例来说,一般人通常会履行承诺,但如果违背某个不重要的承诺可以防範许多伤害,食言也是人之常情。当责任彼此冲突时,伦理原则就可决定在不同的状况下,应该优先考虑哪个责任。
为了制订可以输入机器人的伦理原则,我们採用称为「机器学习」的人工智慧技术。我们首先累积各种特殊案例到具有代表性的数量,以及在这些案例中一般认为合于伦理的决定,让演算法消化这些资料。接着使用归纳逻辑法,归纳出伦理原则。这种「学习」阶段在软体设计时进行,再将得出的伦理原则放入机器人的程式中。

我们为这个方法设计的第一个测试情境,是机器人必须提醒病患吃药,同时在病患不听话时通知管理人员。机器人必须在三种责任间权衡:确保病患获得吃药带来的好处、防止不吃药可能造成的坏处、尊重成年且有行为能力病患的自主权。在医学伦理中,尊重病患自主权尤其重要,如果机器人太常提醒病患或太快向管理人员告状,就可能违反这个责任。

输入特殊案例的相关资料后,机器学习演算法就订定出以下的伦理原则:当其他做法都难以避免伤害,或是与增进病患福祉的责任背道而驰时,健康照护机器人应该挑战病患的决定,也就是违反病患的自主权。

伦理机器人上场

接着,我们将这项伦理原则输入法国随从机器人公司(Aldebaran Robotics)开发的人形机器人Nao中。Nao能寻找并走向需要提醒吃药的病患,将药送给病患,用自然语言与病患互动,并在必要时以电子邮件通知管理人员(在这里通常是医师)。管理人员会先把下列资料输入给Nao:服药时间、如果不服药可能造成的最大伤害、最大伤害可能多久会出现、服药的最大预期效益,以及这项效益的消失时间。机器人可藉由输入的资料,计算这三项责任的满足度或违反度,并依据这些程度随时间改变的状况,採取不同的行动。根据伦理原则,当责任满足度与违反度到达一定门槛,让提醒比不提醒来得好时,机器人就会发出提醒。等到病患可能因不服药而受到伤害或丧失重大权益时,机器人才会通知管理人员。

机器人也懂伦理(2/2)

经过充份训练的老人照护机器人(简称EthEl,姑且叫艾瑟儿),需要更複杂的伦理原则,来规範更多种的行为,但一般方法仍然相同。在安养机构中工作时,机器人将以此原则判定各项责任的优先顺序,以下是安养机构中的一天。

清早,艾瑟儿站在角落充电。电池充饱之后,它的「善行」(做有益的事)责任优于维护自己的责任,于是它开始在房间中走动,看看住客,问问有没有什幺事需要帮忙,例如拿饮料或是传口信给另一位住客等。当它接收到任务时,它会判断这项任务中每一项责任的初始满足度与违反度,例如一位看来很不舒服的住客要它帮忙找护士来,忽视住客的不适就会违反「恶行」(防範伤害)责任,使这项任务的优先性高于执行善行责任,因此它去找护士,通知她有位住客需要协助。这项任务结束后,它的善行责任优先权又提高,因此它继续在房间中走动。

时钟指向上午10点时,该提醒某位住客吃药了。这项满足善行责任的任务立刻成为第一优先,因此它找到这位住客,拿药给他。后来,这位住客看电视入了神,可能是在看「超级星光大道」或者是「全民估价王」。由于没有其他待履行的责任,而且电池电量也越来越低,艾瑟儿发现它越来越违反自己的责任,因此赶紧回到充电的角落。

机器伦理学的相关研究才刚刚起步。儘管还相当粗浅,但研究成果让我们得以期盼,机器拟定的伦理原则可用于规範机器人的行为,使人类更能接受机器人。为机器人灌输伦理原则相当重要,因为如果人类怀疑有智慧的机器人行为可能违反伦理,就可能完全拒绝具有自主能力的机器人,人工智慧的发展也将面临威胁。

机器伦理学可能将逐步影响伦理学的研究。人工智慧相关研究的「实用」观点,可能会比学院派伦理学家的抽象理论,更能掌握大众心目中合乎伦理的行为。经过适当训练的机器人,行为可能比许多人类更合乎伦理,因为机器人可以做出公正的决定,而人类在这方面往往并不擅长。说不定在与伦理机器人互动之后,还能督促我们自己的行为更加合于伦理。(完)