道德问题始终是制约自动驾驶商业化和大规模普及的关键因素。美国人比较喜欢用一个处于两难境地的道德测试来衡量自动驾驶的合理与否,这个测试就叫做“有轨电车难题”(Trolley problem)

英国哲学家菲利帕•福特(Philippa Foot)1967年首次提出这个伦理学的思想实验。问题很简单:假设你看到一辆失控的有轨电车在轨道上高速行驶,电车前方的轨道上有5个毫不知情的行人。如果你什么都不做,那么那5个人会被电车撞死。生死瞬间,你唯一的解决方案是扳动手边的道岔扳手,让电车驶入备用轨道。但问题是,备用轨道上有1个不知情的行人。扳动道岔的结果是,拯救了原轨道上的5个人,却牺牲了备用轨道上的1个人。这种情况下,你会扳动道岔扳手吗?如果用1条生命换回5条生命,你感到难以定夺。那么,假设牺牲1个人可以救50个人呢?

(选自书《人工智能》,作者李开复、王咏刚)

牛津大学教授Kevin Dutton通过两个典型的道德两难问题揭示了这一点,他让半数心理变态的被试,和半数人格正常的被试来回答两个问题:

问题一是与自己无关的道德两难困境(impersonal moral dilemma):电车飞驰而来,前方的轨道上有五个工人。要拯救这五个工人,唯一的方法就是按下一个开关,让电车转到另外一个支线上,但是另外这个支线上也有一个工人,这样他就会被撞死。你愿意按下这个开关

吗?

大部分人(包括心理变态者和正常人)都很快地回答说愿意。

问题二则是与自己相关的道德两难困境(personal moral dilemma):同样是电车在轨道上飞驰而来,前方有五个工人对此浑然不觉。你正站在天桥上,前面碰巧有个身体硕大的人。要拯救这五个工人,唯一的方法就是把这个人推下去,用他的身体使电车停下来,但是这样

他就会被撞死。你愿意把他推下去吗?

Kevin Dutton说,第二种困境调动了我们大脑中的杏仁核,那是处理情绪、产生同情的中心,而心理变态者则天生就缺失了这部分能力。

(选自公众号Know Yourself)

张小敬摸到了萧规的底线,心里就有底了,他忽然抛出一个问题:“你们恨

朝廷吗?”

两名护卫异口同声:“恨。”

“如果你有一个机会,让大唐朝廷毁灭,但是会导致很多无辜百姓丧生,你

会做吗?”张小敬的声音在黑暗中不徐不疾。

“当然做。”又是异口同声。很快一个声音又弱弱地问道:“很多是多少?”

“五十。”

“做!”

“如果你们报复朝廷的行动,会让五百个无辜平民死去呢?”

“会……吧?”这次的回答,明显虚弱了不少。

“那么五千人呢?五万人呢?到底要死多少百姓,才能让你们中止这次行动?”

“我们这次只是针对朝廷,才不会对百姓动手。”一个护卫终于反应过来。

张小敬停下脚步,掀开蒙皮朝外看看:“你来看看这里,现在聚集在广场上

的,差不多就有五万长安居民。如果灯楼爆炸,勤政务本楼固然无幸,但这五万

人也会化为冤魂。”

(选自书《长安十二时辰》下,作者:马伯庸)

李泌相信,适才张小敬举弩对准自己,是真的起了杀心。只有如此,才能获

得萧规的信任。为了拯救更多的人,哪怕要牺牲无辜之人,张小敬也会毫不犹豫

地动手——李泌也是。

他们曾经讨论过这个话题,一条渡船遭遇风暴,须杀一人祭河神以救百人,

杀还是不杀?张小敬和李泌的答案完全一样:杀。可张小敬对这个答案并不满

意,他说这是必然的选择,并不代表它是对的。

(选自书《长安十二时辰》下,作者:马伯庸)

人生永远是在做选择题,只不过面对的选项不同而已。取舍的依据标准因时因人而异,当然最好可以脱离道德束缚,做出全然的客观选择。因为道德层面本身就具有不稳定性,对于可以见仁见智的内容,很难具有唯一性。一味假设选择,就是在不断内耗。遇到问题解决问题,不要自己给自己找问题。以上内容,只是作为学习内容,拓展孩子的知识面,不是人生问题的解决方式。