自动驾驶无法决定的道德难题

2016年08月30日 今日头条



在各种道德难题的测试中,唯一可以确定的事情是,人们的选择是不确定的——即使只站在自己的立场上,也可能作出不同选择。

今日推荐文章《自动驾驶汽车不会考虑你的道德难题》,来自头条号人工智能学家,经编辑。

自动驾驶汽车从科幻变为现实后,一个哲学问题成为全世界一场关于科技的激烈辩论的焦点。

但实际制造自动驾驶汽车的人们,其实对此感到有些无聊。

“电车难题”(trolley problem)是一个哲学的思维实验,是为了引出一个道德上的难题,关于行动还是不行动的问题。

这个难题最典型的版本是一辆失控的矿车,正朝着五个毫无察觉的人飞驰而去。而你没有时间来告诉他们这个情况,你所能做的只有扳动一个开关,让矿车走到另一条轨道上,这条轨道上只有一个人。这时你会选择拯救五条生命,而以另一个人的生命为代价吗?


这个问题还能修改出各种各样的版本,来测试道德感受的不同方面。如果不是扳动开关,而是把一个体型巨大的人推到轨道上以阻止矿车前进呢?如果那五个人都超过了80岁,而另一条轨道上的人只有不到20岁呢?如果不是五个人,而是五百只小猫呢?

又或者,如果失控的不是矿车,而是你的自动驾驶汽车呢?如果你不是那个需要在现场作出决定的人,而是需要把你的决定预置到代码中的程序员呢?如果你不是在不同轨道上的一个人和五个人的生命之间作出选择,而是在车主的生命和五个路上行人的生命之间作出选择呢?

这个问题似乎切中了人们恐惧自动驾驶汽车的心理要害:把生死攸关的大事的决定权交给了加州的程序员,他们作出的决定是不透明的,而且可能是对社会不利的。毕竟如果你知道你的汽车所载的程序会为了保护一个横穿马路的人而突然转向撞上一棵大树,你还会愿意买这样的汽车吗?

最近《科学》杂志发表的一篇文章表明,即使制定法规也不会带来帮助:民意调查显示,大部分人是不会支持要求自我牺牲的法规的,而最终的结果是人们会拒绝购买自动驾驶汽车。当然,这样的情况从长期来看其实会造成更多的死亡,因为不称职的人类驾驶员造成的交通事故死亡数要更多。


X是Google的兄弟公司,致力于开发完全自动驾驶的汽车。对于X的工程师来说,这个道德问题并不像听起来那个有意思。“我们乐于谈论电车难题。”项目的总工程师 Andrew Chatham开玩笑说。

“我们要记住一个重要的事实,那就是你首先要遇到这种难题发生的状况,”他说,“我们走过那么多的路程,还从未遇到过需要在一个婴儿和一位老奶奶之间作出选择这类的状况。即使我们真的看到了一个这样的状况,这通常意味着在几秒之前你的程序犯了一个错误。作为一个有道德感的工程师,如果我想要拯救生命,我就会以避免这种状况的出现为目标,因为一旦有这种状况出现,就意味着我的程序是失败的。

“解决这个问题虽然有很多其他的聪明办法,但你获得的最好答案几乎总是‘猛踩刹车’”他补充道,“你对直接在你面前的东西总是更有信心。无论系统是怎么运作的,踩刹车对车子的控制总是比试图让它撞向任何障碍物的操作更精确。所以除了极少数的极端情况,踩刹车总是最正确的答案。”


即使一辆自动驾驶汽车真的遇到了一种从未见过的状况,不得不在两种死亡事故中作出选择,即使汽车的刹车系统完全失效,即使在这样紧急的状况下还允许进行道德上的考量(项目中另一位工程师Nathaniel Fairfield开玩笑说实际情况是“如果你遇到……噢,来不及了!”),即使在这样完全理想化的状况中,自动驾驶汽车的程序也几乎没有什么可决定的事。

《科学》杂志发表的文章还推出了一个民意测试工具,可以让人自定义一个道德难题,在各种难题的测试中,唯一可以确定的事情是,人们的选择是不确定的——即使只站在自己的立场上,也可能作出不同选择。所以,现在我们最好还是不要把关于这些道德难题的观点写进我们的程序代码中。


长按二维码,勾搭头条君

你关心的,才是头条丨今日头条

收藏 已赞