国际交流

首页 > 新闻动态 > 国际交流
哲学与认知科学明德讲坛第5期暨科学·社会·人文论坛第93期之
实践智慧与机器信任
 

【编者按】机器如何具有道德?机器所面临的种种局限又如何可以基于对人类认知的理解来加以解决?本次由中国人民大学哲学与认知科学跨学科平台所举办的哲学与认知科学明德讲坛第5期暨科学·社会·人文论坛第93期,特别邀请了来自匹兹堡大学的著名哲学家科林.艾伦(Colin Allen)进行报告。艾伦以题为“实践智慧与机器信任”的精彩报告首先回顾了在机器道德问题上的现有局限,并尝试基于人类实践智慧的启发提供一个可能的解决方案。来自北京大学、清华大学、中国科学院、中国社会科学院、首都师范大学、山东大学和东北大学的学者以及中国人民大学的师生参与了本次讲座,其间就机器道德、人机交互、社会技术系统与实践智慧等诸议题展开了深入的交流与讨论。

本次论坛由跨学科平台首席专家刘晓力教授主持。她首先介绍了艾伦的教育背景与学术履历,并着重介绍了艾伦与瓦拉赫合著的著作《道德机器》的重要影响。随后她依次介绍了三位评论人,分别是来自中科院的曾毅,中国人民大学的卡尔.米切姆与中国社科院的段伟文。
 
1. 报告环节

艾伦首先以自己与瓦拉赫合著的《道德机器》引出今天的主题。在简单回顾了该书提出的将自上而下(top-down)与自下而上(bottom-up)两种方法相结合的路径后,艾伦承认自该书出版以来所受到的一些批评也使他意识到了机器道德研究的限制。这使得他开始基于这些限制去设想可能的解决方案。他首先回顾了书中基于自主性与道德敏感性两个坐标建立的讨论机器道德的参照系,然后划分出了设计者的工程道德,功能道德,具有完全道德能动性三个由低级到高级的机器道德层次。

艾伦指出,当下的机器人仅仅达到设计者的工程道德的门槛。在他看来,这一限制要求我们必须反思之前的研究进路。他随后用吉普斯的漫画嘲讽了过去将更多的注意力主要放在机器自身上的路径的局限,接着提出了一种新的路径,即将研究重心转移到对作为设计者、使用者与监管者的人类的道德与伦理与机器道德的关系上展开问题分析。他以“北京AI伦理共识”为例,介绍了该路径的一些大体指导原则。

当然,艾伦指出,这只是一个原则性的纲领,更重要的工作在于如何具体的从细节上去实现。他反复强调了“细节决定成败”的重要意义。

紧接着,艾伦指出,我们关注的不是人与机器的简单加和,而是人与机器的互动。这一互动是在所谓的社会技术系统中发生的,人与机器在其中形成了一个反馈回路(feedback loop)。由于人与机器在该回路中的不对等关系,例如人相对于机器更灵活,能够更好地适应并有机会对机器加以利用;加上人机关系的反馈回路自身的复杂动力学的诸多不确定性的影响,要对这一回路给出伦理图景的预测是相当困难的。因此,人机伦理互动需要精细的社会模型。

然而,由于难以得到一个这样的模型,人类也在这一回路中有着诸多限制。在艾伦看来,这一困境需要我们注意人类与机器各自的优势和限制。不论是符号主义的AI或是机器学习的AI,抑或两者的混合系统都仍然缺乏灵活性。这主要体现为机器缺乏视角、理解和语境;系统只能遵循严格的规则输出训练后的行为结果;以及无法在规则支配的行动和不同的物理情境中进行自我调节。

在艾伦看来,解决以上困境的关键是引入人类的实践智慧。艾伦认为实践智慧主要蕴含着在实践领域做出正确判断的能力,并且可以突破理论知识的限制。例如在超速开车问题上,我们通常认为超速是不道德的。但是在某些具体情境中,一些超速是可以理解的。例如在紧急情况下,或者在天气允许的情况下很小程度的超速是不违道德的。熟练的司机并不是单纯依靠一系列规则的引导做出这种判断,而是运用了实践智慧。在此,实践智慧的体现是对于知识在当前情境中所处范围进行理解的元认知能力。

艾伦随后就当前的AI是否具备元认知能力进行了探讨。他首先指出IBM公司的AI沃特森在知识竞赛中似乎表现出了对自己答案的信心。然而艾伦指出,与人类中的专家相比,沃特森对于自己给出的答案并不能提供理由。随后艾伦分析了2018年发生在美国亚利桑那州的一起自动驾驶系统误判导致交通事故的原因。在这起事故中自动驾驶汽车没有辨识出路上的行人,而驾驶员也因为过度信任自动驾驶而没有做出反应。在艾伦看来,这起事故充分反映了现在的AI在实践智慧上的缺乏。尽管驾驶员和横穿马路的行人都负有一定责任,但AI仍然可能需要为此负责。随后艾伦提供了关于责任的三个因素,并以此刻画AI的责任以及其对于我们伦理图景的影响:

首要因素是解释力。AI的工作原理对于大部分使用者而言是陌生的,这使得使用者们自己的粗浅理解往往不会太有效。而专家只会在一些严重事故时才会提供解释,这使得AI的可解释性并不令人乐观。

而在赔偿能力上,尽管大部分AI都带有保险或者相应的法律保障,但很多影响价值的小事件并不会带来接受法律惩罚的后果。

最后在可谴责性上,相应的道德谴责并不会被归于开发AI的企业或政府官员,在小事故中甚至连被归责的主体都难以找到。

这些由AI带来的对伦理图景在许多细节上的改变都将对当下人机反馈回路的理解与发展带来挑战。在艾伦看来,为人机系统进行实践智慧上的增强训练是当务之急。基于这一目标,艾伦从研究者、使用者、管理者以及科学-哲学协同工作者的角度分别提出了改进意见。研究者需要为使用者理解AI的局限性提供信息;使用者需要对一些细微的价值相关事件加以关注;管理者不仅需要聚焦大型事故,也要对大量可能带来潜在威胁的细微互动进行关注;最后科学-哲学的协同工作者需要发展出关于人机互动的大尺度社会系统模型,并关注人机互动的伦理产物。其中,艾伦尤其强调研究者与研发者必须确立“伦理边界场域”,这些场域的伦理风险相对较小,可以为使用者和机器的实践智慧提供经验积累。

最后,艾伦对以上观点进行了总结。在艾伦看来,他所提出的“机器智慧项目规划”以人机反馈循环及其所处的社会系统为研究对象,基于人机各自的缺陷分析了当前的限制。正如艾伦所指出的,对当前限制的突破需要将研究重点从机器转移到机器和社会双方。当然,艾伦也指出目前这一计划所提供的策略与改进意见还缺乏细节。不过如果项目获得批准,进一步的研究与细节将在随后三年完成。
 
2. 评论环节

在评论环节,中科院类脑人工智能专家曾毅首先就艾伦关于当前AI无法通过自身进行理解的观点进行了评论。曾毅指出了当前的AI是基于数据运算的系统,这些数据敏感的AI只能产出一些结果,而却无法理解真实的世界以及相关的互动。并以自动驾驶汽车为例指出社会学家应该对这些不可靠的AI可能产生的后果进行调控指引,然而当前的主流AI公司并没有对此给予过多关注。随后,曾毅指出AI发展应该不仅仅以机器学习作为其全部基础,还应该从进化生物学中获取资源,这会对AI的自我模型的建立提供真正的帮助。只有基于这样的自我模型,AI才能真正的理解他人。最后,曾毅指出对AI未来发展的理解不能仅仅基于研究者自身,还需要从社会科学以及更广泛的跨文明视角来加以理解。

随后,第二位评论人米切姆回顾了自己对艾伦研究的首次了解是基于艾伦在《自然》杂志上的一篇文章,并提到了荷兰学者克鲁斯在相同领域的工作。米切姆指出艾伦对于AI与机器认知方面的哲学研究与工程哲学及技术哲学联系紧密。随后米切姆就艾伦报告的可能启示进行了分析。米切姆认为该报告在人机互动方面的研究与技术哲学家伊德关于“物质参与(material engagement)”的理论不谋而合,并且从人类进化与工具使用等角度分析了实践智慧的含义。最后,米切姆像艾伦询问他如何看待这一视角以及如何看待人机互动对人类智能的塑造。

第三位评论人段伟文首先以拉图尔的行动者网络理论为基础,提出了如何建设技术社会系统中的人机协同的问题。随后,他以“分布式道德”为焦点,就自动驾驶的案例提出了独特的分析。接着他提出我们需要为整个系统提供价值设计,并从研究整个系统的视角问题上为道德行为图示的建立给出了自己的看法。

艾伦随后就认知科学与神经科学的重要性、物质技术对人类进化的塑造、实践智慧的经验获取方式等角度与三位评论人进行了深入讨,并就其他参会者提出的机器自我意识、机器的道德原则与完备性以及预测与不确定性等问题进入了公共研讨环节。最后,会议在参会者的意犹未尽的热烈讨论中圆满结束。


参与论坛的部分人员合影(左起第4位为报告人艾伦教授)


 
文字:刘牧
编辑:Chao