人工智能是一种颠覆性技术,不仅会带来社会组织和互动模式的改善,也会冲击社会伦理和法律秩序,甚至可能导致伦理与法律的对立和断裂。伦理与法律作为公正价值的具象和互释,二者的冲突必然损害社会对于公正价值的期待和社会运行。与此同时,无人驾驶作为人工智能的具体应用,其碰撞算法带来的法律伦理问题尤其值得关注,并能够成为人工智能法律伦理研究的试验场。
1 无人驾驶碰撞算法的伦理立场
碰撞算法的伦理立场是无人驾驶汽车在碰撞时采取的伦理立场。无人驾驶汽车碰撞时的伦理选择是通过代码,更准确地说是通过算法来实现的,因此不同于人类伦理。不过,无人驾驶碰撞算法的伦理立场也不可能凭空而生,而只能在人类既定的伦理立场中加以比较、选择和嵌入,并据此创新碰撞算法的伦理样态。因此,碰撞算法的伦理立场是立足自身规定之上的对以往伦理选择的扬弃。故此,我们首先需要明确人类伦理与机器伦理立场之间的独特差异,并从既有的伦理立场中加以选择和证成。就汽车碰撞时的道德决策而言,人类伦理与机器伦理的价值选择既有共同之处,也存在不同之处。相同之处在于,两者都建立在人类主体的选择之上,都是人类价值选择的结果。因为如前所述,即使是机器伦理选择,也首先需要人类赋予算法以伦理立场。此外,由于信息衰变和噪音,人类与机器在紧急决策中都存在随机性,即人类掷硬币与机器随机算法。不过如下所述,人类决策的随意性明显比机器决策的随意性要高,很可能是大概率事件。这主要是由于两者的底层逻辑不同而决定的。
其一,两者基于不同的知识论。前者选择的基础是理性与经验。康德将两者结合起来,并将由此得到的知识称为先天综合判断,即由理性赋予一般形式特征的经验知识和命题。后者选择的基础必须依靠算法,“依赖于机器代码来定义和计算人们需要遵守的规则和违反规则的结果”。 算法是通过处理数据、计算信息和自动推理来解决类型化问题时遵守的明确规范,也是一种由计算函数明确定义的形式语言。形式语言可以被视为理论理性的反映,但智能算法的决策模型必须借助训练数据集才能实现。基于此,碰撞算法决策实际上取决于训练数据中的经验和知识,遵循经验主义。人类之所以能够从小数据和有限信息与知识中作出正确决策,主要源于理性对经验知识的加工和总结。机器不具备人类理性,因此只能通过大数据来进行决策,且决策效度随着大数据规模的增长而增长,并具备抵抗错误的鲁棒性。
其二,两者兼容的伦理维度不同。前者选择基于人类的有限理性与经验知识,要么立足于功利主义立场,即基于小数据的局部计算所得到的利害权衡结果,要么采取义务理论立场,即基于善良动机、直觉或情感而遵从可普遍泛化的伦理规范。可是就人类伦理而言,无论是功利主义,还是义务理论,都无法诉诸绝对理性,而只能依赖有限理性获取合法性。因此,人类因个体差异作出的碰撞决策只能是局部信息和个人知识的结果,恐怕很难规则化、重复化和通约化,即便从中能够得出最大公约数,但个体能动性的差异也无法贯彻道德选择的统一。与之相反,后者的伦理选择借助智能算法和训练数据,能够通过反复迭代和递归接近期待的价值选择。因为借助路径规划算法,无人驾驶汽车可以快速确定将要经过路径的输出范围、路径选择的可能性,并基于数据质量和其他因素估算事故概率。更何况,计算机可以自行识别道德规范的组成部分,而不需要人类准确地阐明为什么一个行为是或不是道德的。即便碰撞算法处理的数据存在非结构化、生命损耗和质效衰退,因而碰撞决策无法回避随机性,但这依然无法否认一个事实,即碰撞算法的伦理选择是可以通约复制的智能算法,基于大数据的全信息计算之上。因为算法是机器时代的基础设施和搜索引擎,具备映射世界和改写行为规则的力量。换言之,通过人工智能技术,无人驾驶的碰撞算法既可以实现全面的利害计算,也可以从大数据中提取公共知识和建构一般伦理规则。
其三,随机碰撞对于人类和机器可能具有不同的伦理价值。申言之,人类伦理对于碰撞事故中的随机决策可能无法给予评价,因为紧急状态下无法强人所难,只能将悲剧归于意外。人类的信息处理和计算能力无法通过生物进化而实现快速突破,因此,只要存在人类驾驶,则随机决策必然如影随形。但是,机器的随机决策却可能具有伦理意义。这是因为,个别无人驾驶汽车采用随机碰撞的数据和信息,可以通过反复模拟和网络对抗进行道德实验和伦理演算。这种根据个别案例和小数据得出的伦理选择路径,依靠的就是算法迭代和算法演进。算法迭代是当前计算机理论科学研究广泛关注的基本逻辑原理,通常被称为自动算法设计或自动编程,最近被遗传进化算法以及机器学习技术的应用所推动。这意味着,无人驾驶中的随机事件可以用实验方法与数学理论建构相结合的方法来解释。机器发生的随机决策可以发展为一种受控安全实验,通过复杂数学进行模拟。这符合复杂系统的一个基本定理:“秩序存在于混沌之中。”因此不难推断,机器的随机算法可以随着随机碰撞共同演进,亦即随机算法通过算法创新和算法遗传以降低碰撞的随机性,从而达至道德结果,乃至缩短偶然碰撞事件的道德演进周期律。这恐怕是人类驾驶碰撞中随机决策所无法完成的。
2 无人驾驶碰撞算法的法律治理
碰撞算法的法律治理与伦理规范必须互动整合,通过最大共识来引导、确认和保障彼此。尤其是对现代晚期伦理,或者说后现代伦理状况而言,个人主义基础上的多元道德已经成为社会事实,多元伦理选择在很多领域并非绝对不可接受。但碰撞算法关系社会根本价值,而绝对多元立场潜藏道德虚无主义的危机,这令人不可接受。因为这意味着智能黑箱公然实施歧视和不公,导致无辜者受害,制造商推卸社会责任,交通事故增多和交通犯罪加重。对此,结合规则功利主义的立场以及人本主义义务论,建构统一的碰撞算法似乎是理性选择,而政府天然地具备这种职能。但问题在于,倘若碰撞算法通过法律由政府强制统一,则国家权力构筑的算法帝国又保藏专断和暴政危险,并可能妨害算法进化、算力提升和公共选择。基于整体考虑,本文认为,碰撞算法的法律治理可以尝试以下政策。
第一,从伦理是法律的规范先导出发,法律政策应当鼓励和支持企业研究和发展碰撞算法伦理,建构碰撞算法的伦理自律。如果说智能社会是对信息社会的辩证否定,其中必然包含对传统伦理关系的扬弃,并需要通过智能社会自身互动与组织来实现。政府应当以此为契机,鼓励不同碰撞算法伦理之间的竞争和合作,从而促进机器伦理的创生和规范的融合。
第二,立法应当积极介入碰撞算法伦理的建构和塑造,以法律公正价值防控和促进碰撞算法的伦理表达和符号成长,避免自生伦理冲击取代法律权威。
第三,就具体策略而言,从碰撞算法伦理与法律价值既有差异又高度重合的角度而论,碰撞算法的法治策略应当力争平衡伦理自决与法律强制。
3 结束语
人工智能的治理需要法律与伦理协同并进。科技能够指出什么是可以做的,伦理则能够指出人类行动的应然界限,并用法律来确定和维护其中的道德底线。法律与伦理在某些观点上虽有所不同,但相互间不能分离,并同时以一般规范的形式共生和交互。尤其是对作为社会核心价值的正义而言,伦理与法律一般不是对立的,而是连贯一致的。
参考文献:
[1] 莫宏伟.强人工智能与弱人工智能的伦理问题思考。科学与社会.2018-03-25
[2] 杜静; 黄荣怀; 李政璇; 周伟; 田阳.智能教育时代下人工智能伦理的内涵与建构原则. 电化教育研究.2019-07-08 14:17