哲学与认知科学明德讲坛第8期之神经科学与人工智能专题
编者按:12月20日,由中国人民大学哲学与认知科学跨学科平台举办的哲学与认知科学明德讲坛第8期在中国人民大学人文楼500会议室举行。本次明德讲坛的主题为神经科学与人工智能。来自深圳大学、中国科学技术大学、昆山杜克大学、北京师范大学、首都师范大学、中国社会科学院、清华大学和中国人民大学等高校和研究机构的学者参与了本次活动。
在工作坊开始之前,中国人民大学的刘晓力教授致开幕辞,并主持了第一场报告。
朱锐教授报告
在第一场报告中,深圳大学哲学系的朱锐教授带来了题为“从神经科学重审视觉艺术:探讨空间的意识结构”的报告。首先,朱锐批判性地介绍了神经和艺术的平行主义命题。他认为,神经和艺术采用类似的方式解决视觉问题,这奠定了平行主义命题的基础。但是由于神经和艺术之间存在鸿沟,如果直接采用神经科学来研究艺术,那么将造成庸俗的神经美学。因此我们需要谨慎地对待平行主义命题,将神经科学视为艺术研究的新方法,用以完善对艺术的研究。随后,朱锐探索了艺术和视觉的关系模式。他借助本雅明的“灵晕(aura)”概念指出,艺术是一种更纯粹的视觉产品,是大脑能适应并发挥潜力的新视觉空间,它需要不断创新、不断自我否定。接着,朱锐勾勒了神经空间的结构和种类。他主张根据神经科学的研究进展将神经空间分为他系(allocentric)和我系(egocentric)两种。其中他系空间的建立以外部环境为基础,忽视主体的身体位置和感官信息,代表细胞为海马体位置细胞;而我系空间的建立以主体为原点,忽视环境信息,代表细胞为头部方向细胞。他还在研究神经空间的基础上批判了康德的空间观。在朱锐看来,空间并不是固定的,两种神经空间不仅可以根据主体与环境的关系相互转换,而且是动态的、与生命体活动息息相关的。最后,朱锐谈及了自己关于艺术空间的思考。他在对比不同国家的艺术的基础上指出,艺术的宿命就是不断创造新的、奇特的、为人脑接受的、深刻合理的、属于艺术自己的空间。
在评议环节,北京师范大学的刘超教授充分肯定了报告的深度和广度,并就视觉加工双通路、视觉研究实验对象等问题与朱锐进行了深入的研讨。首都师范大学的陆丁博士总结和重构了朱锐报告中的论证,指出其得到的一个结论是不存在统一的空间概念,但陆丁质疑在神经科学研究中是否仍然预设了一个统一的“空间”概念。朱锐对两位评论人作出了回应,并与在场学者就空间和空间意识问题进行了讨论。
陈小平教授报告
第二场报告由北京大学的孙永平教授主持。来自中国科学技术大学的陈小平教授带来了题为“封闭性准则在人工智能哲学和伦理研究中的作用”的报告。陈小平首先引入了人工智能可能带来的社会风险。为了对此进行分析,他概括性地介绍了人工智能的历史概况和发展态势,指出当前人工智能领域的发展的第四次浪潮已经来临。他还将人工智能领域的技术成果概括为基于模型的暴力法和基于元模型的训练法。借助知名的围棋人工智能AlphaGo的例子,陈小平说明了以上两种方法的直观想法和工作原理。进一步地,他指出,现实生活中有大量比围棋更难的非封闭性问题。陈小平认为可以如下定义封闭性概念:一个应用场景是封闭的,若或者(1)存在可计算的和语义完全的模型和有限确定的问题集;或者(2)存在有限且确定的元模型和有限且确定的代表性数据集。然而,封闭性场景对于暴力法加训练法的人工智能而言只是理论上可解的。陈小平认为,如果要使一个问题是工程上可解的,不仅需要满足以上的(i)场景封闭性条件,还需要满足:(ii)失误非致命性:场景应用中智能系统不出现致命性失误;和(iii)基础条件成熟性:通过场景改造/裁剪等手段,封闭性准则的全部要求在具体工程项目中得到实际满足。他将满足条件(i)(ii)和(iii)的场景称为强封闭的。他指出,受益于强封闭性准则,我们至少可以避免一部分人工智能所带来的社会风险。同时,封闭性视角可能会带来其他的挑战。但陈小平通过其所在实验室对于具有融差性的机器人的研究表明,融差性是规避可能的风险的良好途径。
在陈小平报告后,中国社会科学院的段伟文研究员和清华大学的房超副教授分别对报告作出了评论。段伟文从工程哲学的角度支持了陈小平的封闭性准则,并提出,人工智能发展面对的问题不仅是如何提高人工智能的可靠性,还有如何使人信任机器,如何使人工智能向善等问题。房超称赞陈小平提出的封闭性准则迈出了人工智能研究的一大步,但这一步或许还不够。房超指出,有用和无害是位于两个极端的伦理观,封闭性所追求的伦理观是否排斥了另一种价值还值得我们讨论。在评论环节之后,在场的学者与陈小平就脑研究对人工智能的启发、从哲学方面说明融差性本身也是人类心智的重要性质和自动驾驶的封闭性与开放性等问题进行了讨论。
Daniel Lim副教授报告
第三场报告是由中国人民大学姚新中教授主持的,由昆山杜克大学副教授Daniel Lim带来的题为“人工智能伦理学:监控资本主义与杀手机器人(AI Ethics: Surveillance Capitalism and Killer Robots)”的报告。在报告的第一部分,Lim介绍了美国作家Shoshana Zuboff的新书《监控资本主义(Surveillance Capitalism)》所揭示的技术背景下的新型商业逻辑。Lim以搜索引擎谷歌(Google)和手机游戏《宝可梦GO》的盈利模式为例,说明了互联网企业如何使用收集并使用个人信息来获取利益。进一步地,Lim提醒听众注意监控资本主义的逻辑可能带来的后果。他介绍了互联网企业如何利用数据进行大规模心理实验,进而操纵网民行为的案例。在报告的第二部分,Lim对AI技术在致命性全自动武器系统(Lethal Autonomous Weapon System,简称LAWs)中的应用进行了讨论。通过对现有的AI和LAWs的介绍,Lim指出,当前发展的AI技术具有双重可利用性(Dual-Use),在民用领域发展出的技术摇身一变便可应用在军事领域。一些已经存在的例子向我们警告道,AI的发展对人类造成威胁并非天方夜谭。进一步地,Lim认为,LAWs带来全球性挑战的原因在于,国际社会对于相关的重要概念,需要坚持的道德准则和需要建立的法律法规都没有达成共识。
来自首都师范大学的陆丁博士和来自北京大学的陆俏颖博士对Daniel Lim的报告进行了评论。陆丁对哲学家在这一问题上能够起到的作用持悲观态度。他认为,解决相关问题更多地需要提供策略,而哲学在这一方面还很欠缺。陆俏颖表示,面对AI技术带来的问题,普通人需要更多的建议以保护自身的权益。在场的学者进一步就AI技术的有用性和无害性的平衡点等问题进行了探讨。
下午六时,本次明德讲坛在学者们热烈的讨论中圆满结束!
文字:黄禹迪 刘 涛
图片:刘 涛
编辑:黄禹迪