目前程序员在开发和自动驾驶相关的AI程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。
这种道德困境大家都很熟悉:假设路上有一辆自动驾驶汽车,如果它继续往前开,就会撞死前车上的5个人;如果它紧急打方向避让,就会冲上人行道撞死1个行人。
对于这种情况,目前大多数关于AI伦理的讨论,都集中在自动驾驶汽车AI系统的取向应该是自私的(保护车辆及其货物)还是功利(选择伤害最少的人的行为)的。而在现实中,这2种伦理方法都会引起自身的问题。
总体而言,业界目前对AI所要面临的情景设想是非常简化的,道德判断远比此更复杂。比如说,如果给AI设定程序,让它撞1个行人,保护前车的5个人,那么,如果前车上的是5个恐怖分子呢?如果他们是故意要利用AI程序杀死那个行人呢?
对此,北卡罗来纳州立大学科学、技术与社会(STS)项目助理教授维尔科·杜布尔耶维奇(Veljko Dubljević)提供了另一种思路。他提出了一种称为代理人行为后果(ADC)的模型,作为AI道德判断的框架。
ADC模型基于3个变量来判断决策的道德性:首先,程序的意图是好是坏?第二,行为本身是好是坏?最后,结果或后果是好是坏?这赋予了AI很强的灵活性,比如一辆车闯红灯时,还将是否为了避开了一辆超速的救护车以及是否成功避开。
这个模型更贴近普通人遇到的情况,在生活中,大多数人的道德判断通常也是具有相当灵活性。尽管大多数人有稳定的道德原则,但在具体问题上又是灵活的,比如为了好事说谎常常被视作好事。
在此之前,也有研究人员提出了另外的思路。德国达姆施塔特理工大学研究人员曾提出“道德地图”的概念。
该校席格登·图兰(Cigdem Turan)博士表示:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”
通过这种穷举所有情况的方法,就能给机器设定一张和人的道德体系类似的到的地图。
这种穷举不仅包括研究人员给出的情景,还包括从大数据中学习。通过学习,试验AI算法可以区分不同语境并加以道德判断。例如,杀人是错的,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系,并组成一张地图。
编译/前瞻经济学人APP资讯组
参考资料:
[1]l
[2]https://link.springer.com/article/10.1007/s11948-020-00242-0
[3]https://www.eurekalert.org/pub_releases/2020-05/f-tmm051920.php
[4]https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full
本文来自: 前瞻网