汽车也懂哲学:算法懂道德吗?

有人可能会提出异议,认为重要的决策通常涉及道德因素,而算法不懂道德,所以我们永远不会把重要的决定交给算法去处理。然而,就算是在道德方面,也没有理由认为算法的表现会比一般人差。今天,智能手机和自动驾驶汽车等设备已经接手一些原本专属于人类的决定,也开始应对一些早已困扰人类几千年的道德问题。

举例来说,假设有两个小孩追球,忽然冲到一辆自动驾驶汽车的前方。开着这台车的算法立刻完成运算,得出结论:要避免撞到两个小孩的唯一方法是转进逆向车道,但这就可能撞上迎面而来的卡车,而根据运算结果,这样一来有70%的可能会让在后座睡得正酣的车主一命归天。算法该怎么做决定?

像这样的“电车难题”(trolley problem),哲学家其实已经讨论几千年了(之所以叫“电车难题”,是因为现代哲学讨论时的基本范例是在铁轨上跑的电车,而不是自动驾驶汽车)。但讨论了几千年,却对人类实际行为根本没产生什么影响;遇到紧急状况,什么哲学全都被抛在脑后,一切都由情绪和直觉来处理。

1970年12月,有一场社科史上相当令人不悦的实验,那是在普林斯顿神学院,实验对象是一群受训要成为长老教会牧师的学生。当时,实验人员叫所有学生立刻赶往远处的一个演讲厅,就“好撒玛利亚人”(Good Samaritan)这个寓言发表演说。这个寓言讲的是有个犹太人要从耶路撒冷前往耶利哥,但遭到强盗抢劫和殴打,被丢在路边等死。过了一会儿,有一个祭司和一个利未人经过并看到了他,但两人都未停下脚步。后来有一个撒玛利亚人(犹太教相当鄙视这个教派)路过,立刻停下来照顾他,救了他的命。这个寓言告诉我们,人是好是坏,应该由实际行为来判断,而不是由所属宗教来判断。

这些年轻的神学院学生一心想赶往演讲厅,路上想的都是怎样才能解释好撒玛利亚人的道德寓意。然而,实验人员在路上安排了一个人,穿得破破烂烂地坐在门口,低着头,闭着眼睛。每个没起半点儿疑心的学生经过时,这个“受害者”都会咳嗽并发出痛苦的-呻-吟声。但绝大多数学生完全没有停下脚步来关心一下他,更别说提供任何帮助了。要赶去演讲厅所造成的情绪压力,已经压过了他们想帮助受难陌生人的道德责任。

还有其他许许多多情况,都是人类的情绪战胜了哲学理论。因此,如果要讲全世界的伦理和哲学史,会是个理想很美好但现实很残酷的沮丧故事。毕竟,有多少基督徒真能把脸转过去,有多少佛教徒真能超脱利己的执念,又有多少犹太人真能爱邻如己?我们所表现出的,不过就是自然选择把智人塑造成的样子。一如所有的哺乳动物,智人也是靠着情绪来快速做出各种关乎生死的决定。从几百万个祖先那里,我们继承了他们的愤怒、恐惧和欲望,而这些祖先每一个都通过了最严格的自然选择质量管控测试。

但不幸的是,适合在100万年前的非洲大草原上生存和繁殖的特点,不见得会让你在21世纪的高速公路上是个负责的人。每年都有超过100万人因为司机分心、愤怒或焦虑而死于交通意外。我们当然可以派出所有哲学家、先知和神职人员好好给这些司机上上伦理课,但只要一回到路上,他们又会回到哺乳动物的情绪和草原本能。正因为如此,神学院的学生才无视受苦的路人,司机才会在紧急状况下撞倒无辜的行人。

从神学院到真实生活之间的分离,正是伦理学最大的实际问题之一。康德、约翰·穆勒(John Stuart Mill)和约翰·罗尔斯(John Rawls)当然能够舒舒服服地坐在大学讲堂里,花上好几天大谈伦理道德的理论问题;但在司机发现危急的瞬间,急都急坏了,哪还有时间管这些人有什么结论。或许对于迈克尔·舒马赫(Michael Schumacher,现代最伟大的一级方程式赛车车手之一)来说,还真能边赛车边思考哲学问题,但我们大多数人都不是舒马赫。

然而,计算机算法并不是由自然选择塑造而成,而且既没情绪也无直觉。所以到了危急的瞬间,它们继续遵守伦理道德的能力就比人类高出许多:只要我们想办法把伦理道德用精确的数字和统计编写成程序就行。如果我们教康德、穆勒和罗尔斯怎么写程序,他们就能在舒舒服服的研究室里为自动驾驶汽车写出程序,也肯定能让每辆自动驾驶汽车在路上都遵守所有伦理规范。这就像让舒马赫和康德合二为一,担任每辆车的驾驶员一样。

这样一来,只要程序里规定自动驾驶汽车必须停车帮助遭遇危难的陌生人,即便是赴汤蹈火,它都将在所不辞。(当然,如果你针对这些汤汤火火另加个例外条款,情况就不一样了。)同样,如果自动驾驶汽车的程序原本就写着要转进逆向车道救那两个小孩,你绝对可以用生命打赌,它一定会这样做。也就是说,设计自动驾驶汽车的时候,丰田或特斯拉就是把过去道德哲学上的理论问题转化成了实际的工程问题。

当然,哲学算法永远不会是完美的。错误还是会发生,有人会受伤,有人会死亡,更有随之而来麻烦不已的诉讼。(历史上第一次,可能会有哲学家因其所提出的理论造成不幸结果而被告上法庭,因为这也是历史上第一次能够证明哲学概念与现实生活中的事件有直接因果关系。)然而,如果只是要取代人类驾驶员,算法并不需要做到完美无缺,只要比人类更好就行了。鉴于人类驾驶员每年造成超过100万人因车祸死亡,算法要表现得比人类好并不是什么太难的事。你会希望旁边那辆车的驾驶员是谁?是某个喝醉的小鬼,还是舒马赫和康德的合体?

这套逻辑不仅适用于驾驶,也适用于其他许多情况,比如申请工作。在21世纪,已经有越来越多的时候是由算法决定是否聘用某人。当然,我们不能让机器来制定相关伦理标准,这件事还是得由人类自己来完成。但只要确立了职场的伦理标准(比如不得歧视黑人或女性),接下来就可以用机器来实施和维护这项标准了。

某位人事经理可能心知肚明歧视黑人和女性有违伦理道德,但遇到某个黑人女性来申请工作时,还是下意识产生了歧视而不予录用。如果让计算机来评估求职者,并在编写程序之初就设定要完全忽略种族和性别因素,计算机一定会乖乖跳过这些因素,因为它并没有潜意识可言。当然,要写这种求职者评估程序并不容易,而且存在一种危险:工程师可能会不经意间把自己的潜在偏见写进软件里。不过发现这种错误后要清除也并非难事,至少比清除人类种族歧视和偏见的难度要低得多。

我们已经看到,人工智能兴起之后,可能会把大多数人类挤出就业市场,比如司机和交通警察(没了鲁莽的人类驾驶员,只剩下乖乖开车的算法,交通警察也就无用武之地了)。然而,对哲学家来说可能会出现一些新的工作机会,他们的专业技能在过去没什么市场价值,但未来可能会突然变得相当吃香。所以,如果想读个未来能找到好工作的专业,或许可以考虑一下哲学领域。

当然,哲学家对于什么是“对的行为”很少有共识。“电车难题”之类问题的答案,很少能让所有哲学家都满意,例如穆勒这样的结果论者(consequentialist,以结果判断行为),他的想法一定会不同于康德这样的义务论者(deontologist,以绝对的规则来判断行为)。特斯拉不过是要做一辆车,真的要在这种棘手的问题上选择一方吗?

或许特斯拉只要把烫手山芋丢给市场就行,直接生产两款自动驾驶汽车:特斯拉“利他”款和特斯拉“自我”款。遇到紧急状况的时候,“利他”款会为了整体利益而牺牲主人;“自我”款则会不顾一切保护主人,撞死两个小孩也在所不惜。至于消费者,则可以根据自己偏好的哲学观来选车。这样一来,如果多数人买了特斯拉“自我”款,你也不能怪特斯拉。毕竟,顾客永远是对的。

这可不是开玩笑。在2015年一项开先河的研究中,研究人员请参与者假想自动驾驶汽车即将撞到几个路人的情景。大多数参与者都认为,就算可能会牺牲车主,自动驾驶汽车还是应该保全那几个路人的生命。只是,等到再问他们会不会买一部设定为“牺牲车主、顾全整体利益”的车时,大多数人都说“不”。如果涉及自身,他们还是比较喜欢特斯拉“自我”款。

想象一下这个情境:你买了一辆新车,但启用之前得先打开设置菜单,勾选一个选项——如果发生事故,你是希望这辆车牺牲你的性命,还是牺牲另一辆车上那家人的性命。你真的想要做这个选择吗?想想看,如果真选了其中某个选项,家里人会不会和你大吵一架?

所以,是不是该由国家介入,规范市场,直接制定一套所有自动驾驶汽车都必须遵守的伦理准则?肯定会有某些立法者兴奋不已,毕竟终于有机会写出真的大家都会乖乖遵守的法律了。但也有某些立法者会深感不安,因为这背后代表的是要负起前所未有甚至是极权主义的责任。毕竟在历史上,幸好法律的实施必然有其局限性,也就能制衡立法时的种种偏见、错误和过度。各种反同性恋、反亵渎神祇的法律都从未全面实施,实在是非常幸运。而看着政治人物时不时地犯错,我们是否真的希望有这样一套制度系统,会把他们的决定彻底贯彻,像重力一样无所不在?

作者: 尤瓦尔・赫拉利

#现在前往

精选留言

汽车,哲学,算法,道德
sample
2020-08-31
写留言
签到
投稿
QQ咨询
返回顶部