海克斯康制造智能

我们准备好迎接无人驾驶了吗?再看无人驾驶伦理困境


本篇文章我们抛开那些有趣但复杂的技术问题,从人文角度来重新思考一下无人驾驶这个行业。文章中一起探讨交流的问题,可能在未来一段时间并不会十分急切的摆在我们面前,目前可能也没有任何一家机构或者企业能够给出完美的答案,但这些并不能够困住我们的思维不是吗?本文意在抛砖引玉,和大家共同思考。

无人驾驶作为一个高速发展的新兴技术,我们在相关技术上投入了大量的精力,同时技术的发展也吸引了人们很多的关注,但是技术后面隐藏的法律、道德等等问题,却极少被提起,甚至于被忽略。纵然相关的法律法规是要随着技术的不断成熟来渐进推行,但是相关的思考还是必不可少。

按照自动驾驶汽车级别划分,可以很明显的看到,当自动驾驶的级别达到一定程度后,汽车的自动驾驶系统就会参与到感知、决策、控制行为当中。 

即使自动驾驶技术可以显著降低事故率,但是只要是一个系统,就会有失效的可能,以实际测试里程最多的Waymo为例,从2009-2015年期间,总过发生过11起交通事故,而对于大胆的特斯拉,Autopilot发生事故造成驾驶员死亡以及财产损失的报道更是屡见不鲜,可是发生事故后,责任承担方应该是车辆拥有者还是汽车制造商抑或是提供自动驾驶服务的公司?三者又该承担多大程度的责任?应该适用于哪条法律法规?尤其是在传统驾驶方式向无人驾驶转变的过渡阶段,无人驾驶汽车的驾驶行为是否要和传统汽车保持一致?这些问题目前都处于一个灰色地带,科技公司也好,OEM也好,都很少有人会提起,但如果不能及时跟进相关方面的研究,势必会造成公众对自动驾驶技术的排斥,很不利于后续发展。好消息是有一些企业已经在积极的去解决这个问题,2014年沃尔沃曾经就宣布,如果汽车处于手动模式,事故发生后,司机负全部责任,当处于自动驾驶模式时,沃尔沃为事故负责。

除了相关的法律法规,伦理道德对于自动驾驶汽车也是一个无法回避的问题。

有个有名的悖论叫电车悖论,它是这样描述的,一辆正在高速行驶的电车刹车系统突然失控,而前方是一个轨道岔路口,左边轨道有一个人,右边轨道有五个人,电车司机这时候只能选择一条轨道冲过去,代价就是那条轨道上的人会失去生命,这时候如果你是电车司机,你会怎么选择?

问题虽然比较极端但是很残酷是不是,这原本是杜撰的一个道德问题,将其应用到无人驾驶领域,它却有着现实的意义。假如有一天无人驾驶真的走进了我们的生活,并且很不幸,系统失效汽车失控了,此时它是应该为了保护车上的乘客而撞上路上的行人呢?还是为了保护路上的行人撞上路边的障碍物而造成乘客死亡呢?甚至是说它在选择撞上行人的时候,是应该撞上一个孩子还是一个老人,或者是一个无辜的青少年呢?对于传统的汽车,司机可能在下意识的一瞬间就做出了选择,并且会承担相应的法律与道德责任,但是对于无人驾驶汽车,我们将汽车的决定控制权交给了汽车后,汽车又该做出什么选择呢?它做出某种选择的依据又是什么呢?我们人类对这种决定生死的算法又能给予多大的信任?

再进一步来讲,自动驾驶汽车做出选择的底层逻辑可能还是需要我们人类去提前做出设定,这时候就需要我们将目标进行排序,从而尽力做到损失最小化。当老人、小孩、男人、女人、不同肤色、不同种族等等差异赤裸裸的摆在我们面前时,我们应该按照什么标准去做出抉择?这个生死问题谁来决定?对于保险公司来说,儿童的生命周期比起老人更长,所以价格也就更加昂贵,但是这种特定行业的标准恐怕未必适合所有情况。

汽车智能化的浪潮已经滚滚而来,在我们被潮流裹挟前进的时候,是不是也应该反问一下,我们真的完全做好准备了吗?


评论列表 0

暂无评论