编者按:认知科学之所以可能,依赖于这样一个假设:人脑在原则上能够认识自己的活动规律和方法。这个问题看起来似乎没有特殊性,与人是否能认识自己没有实质差别。然而如果人脑真的是进化造就的计算机,是由各种算法组成的信息处理系统,那么哥德尔不完全性定理是否就意味着有些东西是人脑永远无法知道的?以人工智能为例,尽管机器执行算法,但却不能理解算法,不知道算法背后的道理,人脑是否会有类似的认知封闭?2月18日,由中国人民大学哲学与认知科学跨学科平台主办,“神经现实”公众号协办的哲学与认知科学明德讲坛第13期形式在腾讯会议室举行。本次讲坛的主题为“哥德尔定理与认知科学的局限”。来自认知神经科学、计算机和哲学等多个领域的学者对这一主题展开了对话。本次明德讲坛通过网络直播的形式向公众开放,身处各地的哲学与认知科学工作者和爱好者们通过Bilibili“神经现实”直播间参与了本次活动。本期讲坛录像回放已上传Bilibili“神经现实”频道,欢迎回顾!
收看本期讲坛的回放录像,请访问Bilibili“神经现实”频道:
https://www.bilibili.com/video/BV1PN41197Cn
以下为本期讲坛各位嘉宾发言的文字整理稿:
@朱锐:
另外一个问题是,哥德尔定理是一个比较难的问题。相信大部分人,甚至包括专家,都很难有自信心去讨论哥德尔定理的内容以及意义。当然,刘晓力老师在这方面除外。所以,在一开始,我会让刘老师先跟大家简单介绍一下哥德尔定理,尽量把哥德尔定理引入到我们今天所讨论的范围。
我们今天主要的工作模式,就是自由讨论,尽量非正式一些。因为我觉得认知科学,包括人大的明德讲坛平台成立的动机,就是跨学科。所谓跨学科,在我看来,是让专家暂时成为外行。让大家都从外部的、自己不太熟悉的角度去思考自己专业的问题。
今天的框架是“哥德尔定理与认知科学的局限”,但我觉得我们应该有一定的开放性。就是说当专家在讨论自己的问题的时候,可以自由发挥,可以带有一定童真的方式去谈谈自己对人脑、对计算机、对认知科学的一些大方向上的理解。在这之后,我们会邀请线上的观众加入我们的讨论。
感谢神经现实,集智俱乐部、服务器艺术平台各位老师的大力支持,以及感谢线上听众的参与。
@刘晓力:
非常感谢大家参加明德讲坛第13期,感谢朱锐老师。在这里,我看到很多非常熟悉的面孔,包括毕彦超老师、陈小平老师,也包括好多认识的人。其实今天的主题是我和朱锐之前聊的一个话题,而主要的想法是他提出的。
“哥德尔定理和认知科学的局限”论坛海报上的一段提示实际上是一个坑。哥德尔定理和认知科学的局限相互捆绑,未必有完全必然的联系。从哥德尔定理能不能推论出认知科学有局限的结论,有点儿引人上贼船的意思。因此,这首先是一个开放的话题。
海报里面除了提到关键词:哥德尔不完全性定理、认知科学的局限,还有,“机器不能理解自己的算法”、“人脑是由进化造就的信息处理系统”、“如果人脑也是计算机,是不是具有认知的封闭性”……这之中的每句话,都包含着非常多的预设。当然朱锐刚才也说了,我们先有一个框架,其实这个框架就是一个靶子。我们是认可它,还是否定它,要在今天达成共识恐怕是不可能的。况且,我们所有的讨论都不需要有定论。我相信会有很多各不相同的值得争论的观点。
朱锐让我跟大家讲讲研究背景。我自己的博士论文做的是哥德尔思想研究,1999年发表了论文《哥德尔对心-脑-计算机问题的解》,《人工智能的逻辑极限》,2000年出版了《理性的生命:哥德尔思想研究》。早期可能有一定影响的工作是《计算主义质疑》(2003),《认知科学研究纲领的困境与走向》(2003),题目听上去跟我们今天这个主题非常相关。我的主要立场是对第一代认知科学计算主义研究纲领的质疑。或者说,这么多年来,我一直都在一审再审计算主义。2010年中国社科院建院55周年的时候,我做了一个“重审认知科学中的计算主义”的发言。
后来我又发表了一些认知科学哲学的文章。我的基本立场是人类的认知是不可计算的。而这里面最重要的是强调“可计算”的概念指的就是“图灵机的算法可计算”概念。今天人工智能专家、神经科学专家和各位听众坐在这里,一定是在这个特定的以图灵可计算为基础的框架下来谈认知封闭性问题。联系哥德尔不完全性定理,我讲的认知是不可计算的结论,主张倡导一种认知是算法不可完全的研究纲领,来寻求认知科学新的出路(这一点我也跟周昌乐教授有过非常多的交流)。而这个新的出路,也就是图灵机意义上的算法再加上自然机制。包括今天讲的量子计算机最初就是想借用自然机制的计算加上图灵算法。后来我又做了关于具身性、交互和涌现三大隐喻对第二代认知科学研究纲领的意义。之后在进化和具身性背景下讨论了作为行动指南的表征理论、延展认知论题和关于意识难问题和解释鸿沟。到2020年,我又出版了《认知科学对当代哲学的挑战》,主编了《心灵与认知》丛书,我自己一直都认为,这20年我的基本的立场没有根本变化。尽管今天的认知科学已经在更大的哲学背景下展开讨论了。
在研究认知科学哲学的过程中,我有一个研究哥德尔思想的背景。至于怎么样理解哥德尔定理与认知科学的局限,我们后面可以再谈。我相信目前来讲认知科学肯定是有局限的。但是比起20年前,我们今天的研究背景越来越大,不仅仅是在一个哥德尔定理讨论的范围内,我们还可以更多地去关注语言学、神经科学、人工智能、人类学、生命科学,也包括分析哲学和现象学、各种形式的二元论、泛心论;各种自然主义路径的心灵哲学,语言哲学等。随着我们的知识的更新,在讨论这样问题的时候,这个框架也已经变大了。所以我想,这个问题其实是开放的。
关于计算的概念,当然存在各种各样的定义。除了我们前面讲到的图灵可计算的概念,也有很多广义的、或者有时是在隐喻意义使用的日常的计算:逻辑计算、神经计算、进化计算、复杂生命系统的动力学计算、贝叶斯网络统计计算、量子计算、自然计算……
当然,人工智能的计算机依赖于图灵机加上冯·诺依曼机体系设计、以及咱们今天的计算机的发展。我们知道为克服计算机CPU、GPU的计算复杂性的瓶颈,现在开发了TPU系统,例如用于蛋白质折叠结构预测的处理系统、大规模神经形态芯片和神经形态计算机、量子计算机等的开发。其实量子计算机从来还没有实现过,目前还只是一个计算操作系统状态,也许叫做QPU更合适。前几天还爆出微软此前宣称开发出来的量子计算机已经宣告失败。
第一代认知科学的基本假设是,人的心智就是一个计算-表征的数字符号系统。认知科学家萨加德在2008年提出,这一假设受到七大方面的挑战:情感的挑战、意识的挑战、外部世界的挑战、身体的挑战、社会的挑战、动力系统挑战、数学挑战(比如量子计算)。面对挑战我们站在了十字路口,究竟何去何从?
那么,到底哥德尔定理跟认知科学的局限有什么样的关系?我先说到这,先请其它专家谈一谈。
@朱锐
谢谢刘晓力老师,有请陈小平老师。
@陈小平
今天很高兴能够参加这样一个跨学科的讨论,前面两位老师都谈到了哥德尔不完全性定理。我觉得这个定理和人工智能是非常有关联的。我想借今天这个机会,谈谈这个话题和哥德尔不完全定理相关的人工智能的一些新思考。思考的出发点是什么呢?是人工智能第四次浪潮。如果我们还站在第三次浪潮的观点上,其实我们不会想这么远的问题,不会去和哥德尔定理相关联。
今天和这个话题有关的人工智能的问题,我想有三个方面。第一,人工智能的基本假设,这个假设和哥德尔定理非常有关。第二,现有人工智能技术体系的简单回顾。在这个技术体系中,现在我们发现人工智能主要的挑战——根据我在2019年得到的一个结果——叫封闭性。封闭性又和今天这个主题——认知封闭性或者说局限性——有关系。第三,我再把对前两个方面的一些讨论提炼成几点有待探讨的问题。
关于人工智能,现在大家讨论都很多。人工智能的开创者,大家都知道是图灵。按照我们现在的反思,其实图灵的观点没有完全传达出来。图灵关于人工智能完整的观点,表达在他1948年的一篇手稿上。那篇手稿是没有发表的,但这个手稿在图灵图书馆是有保存的。他在其中提出了人工智能的两种观点,一种叫intelligent machinery,中文可能把它翻译成智能机器。什么是智能机器?在他的手稿里写得非常清楚:用机器代替人的每一个部分。但是图灵发现,在当时的技术条件下,我们无法研究这种智能机器。所以他建议首先研究没有感知能力和行动能力的机器,这种智能叫thinking machines,即思维机器。所以其实图灵的术语里这两个短语是有区别的,虽然有的时候它们是被混用的。
后来他提出的图灵测试,只是针对思维机器。1950年的论文只针对思维机器,完全没有涉及智能机器。原因在他1948年的手稿里已经说了。后来人工智能的发展也完全验证了图灵的这种判断。50年代开始研究思维机器,70年代开始研究智能机器。智能机器人研究和智能机器就非常有关了。历史上还有很多关联,我就不说那么多了。但我不想忽略的非常重要的一个观点,是曾经提到过的推理与计算可以相互转化,而这在《维利坦》这本书里有一段论证,但科学上是不会接受这种论证的。这方面,后来一直有相关研究。
到1931年哥德尔证明不完全定理的时候,有很多中间的结果,其中有一些中间结果非常重要。比如他证明KN可表示和递归函数等价,其中KN可表示是一个推理系统,递归函数是一个计算系统,这两个系统等价,就意味着推理和计算等价。但是这个结果也只是涵盖一个计算系统,一类函数,对计算可能不具有一般性。但是到1936—37年图灵提出了图灵机以及图灵论题——可计算的都是图灵可计算的。这时候计算机科学就诞生了。将上面这两个结果合在一起,我们可以得到一个推论,我叫它哥德尔-图灵推论。文献里我没看到这个词,但这个推论是存在的。可以表达为:大量复杂推理是图灵可计算的,也就是说大量复杂推理可以转化为图灵机上的计算。图灵对这个推论当然太清楚了,以至于他都不会去说这件事。他觉得这样的一个结果太理所当然了。
那么,在这个推论的基础上,他提出了图灵假说,图灵假说这个词也是文献里没有的,但我现在认为我们应该提出这样一个术语。图灵假说的意思是说:推理、决策、学习、理解、创造等人类智力活动都可以归结为图灵计算。非常明显,图灵假说是哥德尔-图灵推论的一个实质性推广。
哥德尔-图灵推论只是推理和计算的等价,而图灵假说则将之推广到推理以外,包括决策、学习、理解、创造。图灵在1950年的论文中,从头到尾都在讲图灵假说。但图灵假说至少有2000年的科学传统,至少从古希腊的欧式几何开始,一直到现在。
那么图灵测试是什么?图灵测试不是思维机器或者人工智能的定义,而是图灵假说的检验手段。这一点图灵好像没有说清楚。可能原因是他认为明显是这样,他不需要再说了。所以按照图灵的观点,图灵测试并不是思维机器的定义。这就如同大学教育要通过一系列考试才能够给学生发毕业证书和学位证书,但是大学考试远远不是大学教育的定义。
从这方面来看,已经和哥德尔的不完全性定理有深层的关系了。但是上面说的是思维机器。思维机器现在我们可以有这么一套理论。有假说有检验,从科学研究规范来说,就有一套较完整的体系了。可是对于智能机器,基本假设什么?图灵没有说。而其他人有没有说,我没有看到。智能机器的检验手段也不太清楚。所以现在回顾人工智能前三次浪潮,我们发现从基础研究角度,还有很多事情是不清楚的,所以空间非常大,我们能做的事情非常多。
我把两种机器再做一个说明。实际上思维机器只涉及数据层和知识层,不涉及现实层。而智能机器是三层都涉及,它们之间主要区别在于有没有行动。智能系统通过行动可以改变现实世界。这种行动是思维机器不考虑的。现在我们人工智能碰到的主要困难在什么地方?主要和现实层有关。如果和现实层无关,其实人工智能已经做得非常好了。图灵测试很明显只针对思维机器。我们对图灵测试有很多批评,一方面是对的,另一方面又不公平,因为图灵测试只是针对思维机器,不是针对所有人工智能的。
人工智能技术体系大概有三次浪潮,其中大家了解比较多的是深度学习。深度学习的主要发展阶段是在1986年—2006年。在2006年《科学》期刊的一篇论文提出了深度学习完整的技术体系。可以说,深度学习在2006年已经被做完了。但是全世界都不接受,只有这篇文章的作者们才相信。后来经高人指点,他们2012年参加ImageNet比赛,在图像分类问题上将误识别率降低了一半。所以2013年所有参赛队放弃了自己的方法,统统采用深度学习。到了这个时候,深度学习才被广泛接受。2017年AlphaGo Zero获胜,人工智能第三次浪潮结束,第4次浪潮已经开始。在三次浪潮中发展出的技术已经非常多,这里没办法全面概括。这其中比较主要的两大类是强力法和训练法。
下面我简单概括一下强力法:它首先要有模型,而这个模型是可解释的。另外它有推理机或搜索算法。它的模型如果是针对思维机器,那么就是知识库;如果是智能机器,只有知识库就不够了,还需要模型降射。其实难就难在模型降射。例如,我们有个推理机,也就是一个做推理的程序,然后有个知识库,让它解决具体问题,比如让机器人帮我们就餐。有一些知识我写在这张表里,用这些知识就可以做推理,比如碗能不能盛米饭?推理机进行推理以后说可以。注意碗能不能盛米饭这个结论在知识库里没有,是推出来的。碗能不能盛汤,经过推理也是可以的。还可以问其他问题,包括非常复杂的问题,都有可能推出来。这些看上去做得挺好,但其属于思维机器。到了智能机器还需要有降射,比如知识库有一个符号叫bowl,指的是碗。机器人不能只知道一个符号,它要能找到碗,所以这就需要降射。一般情况下降射问题不大,不同的碗都可以对应起来。
智能机器现在遇到的主要问题在哪里?举个例子,破碗是不是碗呢?按照一般的观点,破碗也是碗,对吧?从概念分类来说,破碗也是碗,我们就把破碗在降射里也对应于bowl这个符号。于是就出问题了:破碗能不能盛汤?你原来推理推出来碗可以盛汤,现在破碗也是碗,所以破碗也可以盛汤。好,破碗盛汤就有后果了,不仅任务不能完成,而且可能产生一些非常严重的后果,比如说汤撒到地上了,把老人滑倒了,出了生命危险了。
这说明现在整个知识库都有问题。这就很麻烦。用一个简单的办法,就是让破碗在降射里不对应于bowl。但其实没那么简单,人工智能比这个复杂的多。降射用什么实现?现在一般是通过图像识别算法来实现的,但是图像算法如果不专门处理,通常一定会把破碗识别为碗。
现在我们对破碗就不好处理了,这样破碗就变成一个丢失变元。这个应用里还有多少丢失变远?这就是“语用的无尽性”问题。我们不知道有多少个类似破碗这样的例子。此外,它们是和环境和任务有关的。如果这个环境里没有破碗,那就无所谓;如果任务不需要用碗盛汤,那也无所谓。人工智能现在碰到的难点在于智能机器的语用挑战,具体地说是语用无尽性挑战。同样,深度学习也是如此。
刚才说的降射中存在的语用无尽性,它的科学挑战是什么?可能存在一些丢失变元,而且不知道有没有,这就是科学挑战。技术挑战是什么?有些变元我们即使知道了,但是处理不了,现实中存在很多这样的例子。第三个挑战是:如果有丢失变元,或者有的变元处理不了,这两种情况会不会造成致命的后果?如果不会造成这种后果,那就简单了;如果会造成致命后果,这就麻烦了。现在的办法是采用封闭性准则,在满足封闭性准则的情况下排除丢失变元。还有一个办法是强封闭准则,根据强封闭准则,三个挑战都能够得到解决。
下面以AlphaGo为例。有人说AlphaGo做那么好,好像没有你说得那么难。所以我分析了AlphaGo,结果发现AlphaGo符合封闭性准则。它的第3代战胜了人类所有围棋高手,第4代以100:0战胜了第3代。AlphaGo有四项核心技术——两项强力法和两项训练法,其中两项训练法有一项是深度学习,所以它的四项核心技术中只有一项是深度学习。可见现在对人工智能误解太多,认为人工智能就是深度学习——这个细节大家有兴趣可以讨论。
为什么AlphagGo满足封闭性准则?上次我在明德讲坛讲过关于封闭性准则的六个条件,强力法、训练法各有三个条件。AlphaGo是封闭性准则的一个正面的例子。在实际应用当中,强力法、训练法只要是在封闭性场景,或者把实际问题封闭化,都没有困难。这种场景非常多。封闭化有全封闭化、半封闭化、柔性化等很多种。传统的工业自动化生产线也是封闭化的一种形式,现在我们把封闭性升级,就支持人工智能技术在自动化上的应用。还有一个半封闭化的例子,比如乌鸦如果打不开一些坚果,就会利用红绿灯。红灯的时候把坚果放在马路上,然后等汽车把坚果碾开了,下一个红灯时乌鸦就去把坚果捡起来。为什么乌鸦这么智能?分析一下就发现,这件事的本质是乌鸦发现并利用了人类创造的一个半封闭系统——交通灯信号系统。而人类则要创造封闭性,还要尝试超越封闭性,任务就更加艰巨了。
总结以上内容,首先关于人工智能中的“人工”,我们该怎么理解?在过去我们只关注什么是智能,其实我们还应该关注什么是人工。根据我上面的回顾和反思,我们发现人工智能的“人工”有两项基本含义。第一个含义是:根据图灵假说和客观实际,人工智能软件的运行载体只有计算机。或者更准确的说,理论上只有图灵机,没有别的。所以人工智能软件本质上必须是计算机软件,或者说图灵机程序,没有别的可能。第二个含义:人工智能是由人工建造的,它的建造原理和方法似乎是没有限制的,比如说不一定是由图灵机建造出来的。一个人工智能系统的软件是一个图灵机程序,但是建造这种软件的方法好像没有限制。
这给我们什么启示呢?我们还是要思考人工智能的硬件和软件的建造方法,它还是存在一些客观限制。因为最终你是要在计算机上去跑这个程序的。如果某些建造方法最终得到的人工智能软件不能变成计算机程序,这对我们没有用。当然在硬件方面,我主要指的是机器人,就没有这个限制了,这个空间就大了。所以为什么80年代90年代末,我们做人工智能的要做机器人,就是因为人工智能软件的局限性很大,但不清楚硬件有什么局限,可施展的空间非常大。
另外还有一些要考虑的问题,我想不清楚,希望和大家讨论。人工智能和神经科学到底是什么关系?人工智能和计算机科学的关系,虽然上面提到一个限制,于是人工智能的软件部分只是计算机科学一个分支,国际上很长时间确实是这么认为的,但是现在我们总结分析以后发现,计算科学处理的是能够语法化的语义,而人工智能需要处理的是语用,所以挑战在于语用能不能语法化?这个问题现在还在研究。
第二个方面的挑战。认为专用人工智能已经成功,未来方向是通用人工智能,这是一个比较普遍的观点。我们分析以后发现,现有人工智能技术可以胜任的其实是封闭性问题,如果没有封闭化,专用也做不好,包括AlphaGo——它下围棋当然是专用的。
现在我们碰到了大量实际应用,原生形态是非封闭的,所以需要封闭化。只要封闭化,很多问题都能做好。那么现在就有一个问题,还有一些实际应用没办法封闭化,怎么办?是不是需要通用人工智能技术?这个问题我们一直都在想。最近十几年不仅想,还有大量实验。我们的结果和反思有这么几点:第一,人工智能第一次浪潮做的就是通用问题的处理机制,大家可能认为都失败了,其实没有完全失败。不管怎么说,前三次浪潮都没办法应对语用无尽性挑战,那么对于语用无尽性的解决,我们现在认为需要的是随机应变的机制,而“通用人工智能”却不能解决。所以现在看,随机应变比通用更重要。
第三个方面,就是不完全性挑战。刚才刘老师已经有比较详细的介绍。简单说任何足够丰富的形式化系统是不可能完全形式化的。哥德尔也有一个说法,在王浩写的那本书里转述了大致观点:人类的直觉,也包括智能,是不断发展的。
再补充一个例子。深度学习三剑客之一杨立坤明确说,人类不具备通用智能。那人类到底有没有,大家可以讨论。但形式系统不可完全形式化,与人类智能的持续发展,二者是一致的。这种一致性对人工智能有什么启发呢?我们有一个猜想,到底什么是人类智能?用一句话来概括,就是相互逻辑不连贯的子系统的共生发育。其中一部分子系统是语用封闭的,通常我们做事做得有效的,都是用语用封闭的子系统;还有一些脑袋里面稀里糊涂一团糟的,这都不是语用封闭的。这些人脑中的语用封闭子系统,我们通过实验观察发现,至少一部分是图灵可计算的,而且其中有一部分我们已经实现了图灵可计算。
剩下的其余的部分,语用不封闭,我们用开放知识来做。开放知识,我今天不去详细展开,只讲大意。最初我们建一个初始模型,只考虑一部分情况,还有大量情况我们没有考虑,也没有见过。然后在人工智能系统运行过程中,它碰到了新的情况,这个时候我们让它去识别新的变元。有些情况下我们已经证明这是可以做到的,有的情况现在还做不到。
识别以后再去让机器人自主地建立一个增量模型,很多情况下是做不到的,但是有的情况我们已经证明是可以实现的。接下来的挑战就是增量模型和初始模型的整合,这是最难的。我们现在也有一个办法让它们能够整合起来。所以整个开放知识技术体系,实际上就是一种随机应变机制,这在一些情况下已经证明是可以实现的。我就说这些,谢谢大家。
@朱锐:
感谢陈老师非常引人深思的精彩内容。针对刚才陈小平老师提出的一些问题,我觉得专门研究人脑的两位神经科学家可以从自己的角度,去谈一谈人脑跟计算机相关的问题。有请毕彦超老师。
@毕彦超
谢谢朱老师的邀请。自己觉得今天的会议安排特别赞。陈小平老师是做机器智能的,我是一直做人的研究,后面杨天明老师正好在做动物的研究。而这几套系统间的智能,其相似性是否可以对比,我一直觉得这是一个特别好玩的问题。理解这个问题,有助于我们(或者至少我)理解人的智能系统。
我觉得跨学科的这种讨论,其实是要花很多时间,彼此去理解每个学科的核心问题和思维,或者说研究方式。
我一直在做人的研究,从认知心理学到认知神经科学,自己关注的核心问题就是人的大脑、人的思维是如何工作的。或者说,人的mind是如何工作的。所以,自己会很自然的关心“大脑的工作机制如何产生人的认知”这样的问题。但是这个认知,不仅仅包括刚才几位老师所说的思维、推理,其实也包括我们的情绪、与外界的交互及其对外界思维的理解。
虽然我一直受认知科学的训练,但我反倒对“认知科学应该是怎么样的”没有一个特别强的立场。我认为,只要我们对心理、认知、感性或者大脑感兴趣的话,都可以一块去讨论相似的问题。
我在做人的研究的时候经常会被问到,作为人本身去研究人,你觉得这可以实现吗?这个问题好像从字面意义上和哥德尔定理有一点相似。但我非常坦诚地说,我并不真正理解其它老师所谈到的计算系统、可计算性、封闭性、一致性、完备性这样一些概念。
我只能说当我们做人的研究的时候,会区分作为观测的对象、普通人和研究者这样几个不同的概念。一个普通的人对自己的思考是非常局限的,尽管你确实是自己去理解自己。但这会涉及到从研究者的角度去研究观测对象的问题。所以,我倒是经常会跟学生说,我们的思维方式一定是外星人的思维方式。就好比一个外星人到了地球上,发现这里有这么多不同类型的动物,如杨天明老师研究的猴子,甚至还有一类两足直立行走、发明了很多工具的物种。这个物种有一个好玩的智能系统,还发明了很多思维工具(刚才所说的符号性、数学、实验的基本思维)。如果像这样跳出以往的思维框架,从第三人称的角度思考,就会超越以前我们所认为的人对认知系统理解的局限。通过实验的方式,去观测、理解生物的智能系统,这便是实验科学魅力所在。
对人工智能而言,是我要发明一个智能;但对我们来说,智能就是自然界中我要去理解的一个现象、一个对象。所以如果你问我认知科学的局限性在什么地方,我是持一个非常开放的心态的。通过实验做做看。
至于我自己是做人的知识表征、语言理解、客体理解的,这些也就是刚才陈老师所讲到的封闭性思维系统。但事实上有太多实验证据表明,至少在人的大脑里面,知识系统和行为感知系统是非常紧密的、互相影响的关系。所以,如果从superficial的层面上,对两者进行对比的话,会有很多好玩的,彼此相似的或不同的地方值得我们进一步挖掘。
@杨天明
各位老师、各位朋友大家好。很高兴可以参加这次讨论,也非常感谢朱老师和神经现实的邀请。
和其它几位老师有点不一样,我主要是在动物上做实验工作。所以我可能会更多从生物角度来思考问题。当然,我也非常关心计算的问题,也会做一些计算模型和神经网络的工作。我觉得大脑所做的计算,从本质上来说,可以概括为sensory-motor transformation过程,或者也可以说是sensory-motor mapping,也就是我们大脑对不同的感觉该怎么反应。而transformation或者说mapping的复杂程度在进化的过程中是不断增加的。如水母之类的简单的生物,它们从感觉输入到运动输出之间可能只有一层神经元。所以,它们所做的计算就非常简单。但如果是比较高等的动物,就存在一个进行非常复杂的计算的中枢神经系统,来做复杂的mapping。更重要的是,当大脑拥有一个复杂的记忆系统时,它就可以把当下的感觉刺激和记忆,与过去的感觉刺激,结合在一起进行反应。
我这里说的记忆,其实也包括了学习。因为记住某个感觉刺激是好是坏,或者对某个刺激应该做什么反应,这其实就是一个学习的过程。而我们认为几乎所有动物的行为都可以归纳为对当下和过去的感觉刺激所形成的反应。而mapping,就是由神经元组成的神经网络来进行计算。而神经网络的计算能力是很强大的。已有数学证明,哪怕是一个非常简单的回馈,人工神经网络就可以完成图灵机所能做到的所有运算。但是神经网络的输入输出可以是实数。而实数本身就已经包括了可计算的数字和不可计算的数字。所以,从这个角度来说,神经网络可以做的事情已经比图灵机要更多。
如果要讨论我们能做什么推理,不能做什么推理,这些推理是不是跟图灵机等同这样的问题,那我们还要考虑另外一个问题——我们的主观体验跟大脑真正在做的计算是不一样的。我们主观能体验到的大脑做的计算,其实只是大脑所做计算中的一小角。而大脑的大量计算是我们意识不到的。
以篮球为例子,篮球明星Michael Jordan可以从各个角度、各个距离把篮球扔进篮筐。那么他每次投篮的时候,篮球出手的角度、力度的计算显然需要符合万有引力定律。但我猜想他对万有引力的了解可能是非常有限的。这就代表着乔丹的大脑可以做非常准确的计算,但并不等于他主观理解计算的过程。这不仅对乔丹是这样,对一个非常熟悉万有引力定律的物理学家也是这样。物理学家在投篮的时候,也不会去主观运用万有引力定律去计算应该如何出手打篮球。所以通过这种类型的方式来讨论我们大脑所做的思考,在我们神经科学看来很有可能是不可靠的。我们需要打开大脑,记录分析神经元的活性,才能够真正了解大脑的思考过程。这也是我们选择用动物来研究大脑的主要原因之一。因为借助目前已有的技术手段来对人脑的神经元活性做记录,还存在不小的障碍。
我的工作主要就是针对sensory-motor transformation这样相对来说是比较底层的,可能更多属于意识下范围的神经计算研究。而在我们大脑当中,还有另外一套系统来监控我们大脑自身的计算,同时对计算的过程和结果进一步评估和学习。我们把这种过程叫做matecognition,即元认知。而它往往会上升到意识层面,被我们体验到。对这种元认知所涉及的行径计算,我也非常感兴趣。
我个人认为我们人类与动物认知能力的差别,可能就在于人类拥有一种非常强大的元认知的能力。而我们平时思考当中所运用到的各种推理逻辑的计算,也基于元认知。
@朱锐
谢谢各位老师。
刚才杨天明老师说,人脑是可以计算实数的,即它的输出可以是实数。但现在的计算机的输入都是离散的。那就意味着实数的计算,是图灵机不可计算的。那么,在何种意义上,人脑不可被现在这种图灵机所模拟呢?或者说,在哪些方面人脑是可以从人工智能的角度去理解的,哪些又不可以?
另外一个问题,便是毕彦超老师所说的认知科学的局限。我觉得这存在两方面的局限,一个是认知的局限即人脑到底有没有内在的局限性?另外一个是认知科学的局限。认知科学的局限,从个人的角度来说是很明显的。因为认知科学都是通过各种各样的计算模型去研究人脑的。而科学方法、科学实验、科学模型之外,人脑的一些(甚至是神秘的)活动方式是认知科学不可模拟、不可理解的。
前面陈小平老师说的内容有一个很重要的意思便是哥德尔定理和认知科学的关系。在这个方面,我前不久刚看过Roger Penrose的《Shadow of the Mind》。这本书其中有一段就提到,哥德尔跟图灵这两个人在认知科学上,对哥德尔不完全性定理的见解是完全相反的。哥德尔认为,人脑实际上局限于人的physical brain中,而人的physical brain基本上是一个计算的机器。这也就意味着,人脑是一个计算系统。但哥德尔认为人的心灵(mind)却不局限于人脑。在他的朋友Roger看来,哥德尔有一定神秘主义色彩。而图灵恰恰认为,人脑所有的活动模式,都是图灵可计算的,这也就是陈老师说的图灵假设。但图灵在讨论人脑工作的时候,他一方面认为人脑所有的计算都是图灵可计算的,同时他又认为人脑有一个突破图灵局限的点——人脑可以犯错误。也就是说人的智能,它之所以不局限于机器智能,是因为人是可以犯错误的。也就是说,图灵认为人脑恰恰是因其具备可犯错的能力和方式,才让人脑真正的智能系统呈现出来。这也是武汉大学计算机教授蔡恒进的一个观点。
而从刚才毕老师和杨老师所说的观点,加上神经科学总体的研究模式来看,研究人脑往往依靠于人脑损伤、视觉剥夺、或者是病理特征等。也就是说,我们是通过这些人脑物理上的或者认知上的错误来理解人脑。那这种错误跟认知的计算局限是不是有一定的关系?
@刘晓力:
哥德尔认为,图灵机可计算的概念第一次把形式系统的概念说清楚。刚才陈小平老师也讲到了,图灵可计算概念就是直观上的能行可计算概念的数学定义。哥德尔1951年在讨论人心能不能胜过计算机问题时,确实明确区分了心灵、大脑、计算机的不同。他认为,大脑基本像一台计算机,而心灵不是,心-脑同一论的哲学是时代的偏见。就如刚才朱锐所讲的,这里似乎存在所谓神秘的成分。他认为我们的心灵不是算法可以完全计算的,如抽象数学直觉、包含初等数论的算术形式系统中不能证明的数学真理,这些都不是算法可计算的。
在哥德尔看来,人有一种直觉能力,叫做抽象直觉——把握抽象概念的能力。处理和把握抽象概念不是通过图灵计算或者形式化系统演绎推理得出来的。对于对更一般的抽象概念,人类可能还没有发展出真正把握它们意义的生物器官——当然不排除在人类长时段的进化史上有可能发展出来——哥德尔把它当作一个科学幻想。他说把心灵看作大脑的物理系统,把大脑看作计算机,这是当代物理主义的哲学偏见,终究会被未来科学所否定。虽然图灵认为人的创造性活动都是可计算的,但哥德尔却认为心灵之所以是不可计算,就是因为图灵可计算的能力极其有限,它只能处理离散的,有穷的知觉对象的纯粹组合性质,那些性质靠狭隘的对具体时空的直觉就能把握,但对数学内容的把握就不能靠这种感性的直觉把握,感性的直觉与形式系统符号的意义是无关的,需要一种把握数学抽象概念意义的直觉,这种理性空间的数学直觉是图灵算法不可穷尽的。
哥德尔还举例说,图灵可计算的概念,形式系统中定理可证性这样的概念,都不是人类的发明,这些东西就像珠穆朗玛峰一样原本就在那儿,是依赖抽象数学直觉人类的发现。特别是通过理解了形式系统概念的意义,我们才逐渐看清且发现了它们。因此,哥德尔的不完全性定理给出的是数论形式系统的局限,就意味着算法的局限。但其定理并没有给出人类理性的局限,这就涉及到认知封闭性问题。
我觉得小平老师讲的认知封闭性,跟朱锐讲的封闭性大概是两个概念。小平讲的认知封闭性,是要对解决和处理问题的情境具有计算的封闭性。比如AlphaGo下棋是一个封闭的系统,通过明确的命题陈述可以将下棋问题和规则的清晰化进行命题表征,下围棋根本上讲是一个图灵可可计算的问题。但是朱锐提到的认知封闭性——人的大脑作为认知的信息处理系统,其自身是否具有封闭性。甚至更进一步,不光是大脑,正如杨老师所讲,还包括身体,甚至整个人类的有机体。有哲学家认为,不是大脑在计算,是包括大脑在内的整个活生生的有机体的人,在与环境打交道中即时地处理任务时在计算。那这样一种实时的、审时度势的认知过程,大脑是不是具有封闭性?进一步,人的认知是否具有封闭性?我想朱锐老师指的可能是这个问题。
麦金(C.McGinn)在《我们能解决心身问题吗》一文中明确提出认知封闭性立场,尽管我们知道存在一些大脑的性质,根据这些性质可以对意识做出某种自然主义的解释;但是,由于受感知有限性所导致的“认知封闭性”的制约(例如,人无法体验作为一只蝙蝠会有什么样的感受),对大脑这些性质的完全理解或概念化表征已经超出了人类认知能力的范畴,人类也许还没有发展出表征这些大脑性质的恰当的概念系统。在这个意义上,意识和物质的大脑之间是存在解释鸿沟的。因此,所谓意识难题,并不是一个有待解决的难题,很可能是一个永远无解的迷题。这是麦金的一种怀疑论的态度。
当然,我这些话并不是说我赞同麦金,而是因为这可能会为认知的封闭性提供另外的角度。毕竟,我们所说的人的认知封闭性,其实是站在上帝的眼光来讲的(或者像毕老师所说,是外星人的角度)。这样来看,所谓认知的封闭性就变成了“人来研究人的认知,本身是不是具有局限性”这个问题了。
@杨天明
我想就刘老师刚才所提到的人思考中的直觉做一些补充。我觉得直觉是一个非常好的点,就如我刚才所说,它是在意识下的大脑所做的计算。就像我们在思考一个问题的时候,我没有什么逻辑,但我突然觉得某个相关的事情正好是解决这个问题的一个关键的点。它突然从我脑子里面冒出来。而这并不代表这个想法是从什么地方飞过来的,它其实也是我大脑计算出来的。但这个计算过程,我主观上没法体验到,也没办法从逻辑推理层面来描述,它是大脑神经网络体验不到的一个计算结果。就连我们平时的思考当中也存在大量的直觉的因素,哪怕你认为人的逻辑推理的思考是完全理性的。就好比一个数学家,他要证明一个定理。虽然证明一步接一步,这些都完全符合逻辑,是完全理性的。但在证明过程当中,他也非常强烈地依赖于直觉。而这也是好的数学家和坏的数学家最大的差别。
所以从某种意义上来说,我觉得用一个逻辑系统,用图灵的理论去描述大脑,是不合适的。因为大脑并不是一个符号系统,并不等同于一个逻辑系统,并不能用数字来表示。大脑可以做的计算肯定是超越逻辑系统的。所以我的观点就是我们大脑能做的,要比逻辑系统所能做的要多得多。逻辑系统所研究的一些理论,包括封闭性、完备性这样一些东西,其实在大脑当中并不是特别有意义的。
@毕彦超:
我沿着天明说的补充两句。我觉得我们两的背景和思维方式都很像,他所补充的也是我想说的。直觉本身其实没有那么神秘,它是你刚好额外地(用他刚才用的词)读取自身状态的那部分。你没有意识到它,并不等于它不是计算的、不是神经活动、是不存在的。
另外有一点,我和天明有一点点不一样。我觉得我最终并没有真正理解什么才被定义为计算。无论是刘老师最开始讲到的对认知科学的挑战,如具身的、情绪的挑战,或者天明讲到的sensory-motor transformation在mapping的系统变得更加复杂,然后具有gonrealization的能力,更能提取出来抽象表征等。sensory-motor当然是可计算的过程,虽然外界的客观世界是一个连续体。但人的神经系统,比如说我们外周视网膜上有一个非常光的蛋白,能够对模拟系统发生化学反应,但它进入神经系统之后,还是会变成一个label,被编成一套算法。(我相信天明在研究当中会和很多做计算的人合作,用计算的东西去描述,去解释、去预测实验结果。)所以在这个过程当中,我非常天真地说,这当然都是计算。
如果我们把这个过程了解得足够清楚,那它们是可以用计算表达出来的。但它显然不是图灵机这种符号逻辑。以就碗和破碗的关系而言,大脑当中碗和破碗之间的关系有太多了,此外还有很多种不同类型的关系,存在大脑不同的地方。当我回答不同的问题和在不同场景的时候,我都会去利用不同的信息,比如我吃饭的时候我不用一个破碗。但如果你让我做判断,我当然知道他们其实是一类的,没有什么本质的区别。
所以我想补充的是,我完全同意直觉、概念、或者是高等数学,它们没有额外变成不一样的东西,它们仍然是大脑的产品。它们是如何表征的,这是一个很复杂的问题。但只要把这个问题定义出来,我们就可以试图去研究它。
再举个例子,我自己是做概念研究,我有很多实验就是做抽象概念是如何在大脑当中进行存储的。第一,我们发现存储机制在大脑不同的地方发生,这表明抽象概念并不是不可研究的。第二,你的确能够看到损伤不同的大脑系统会损伤不同的抽象概念。这就代表在不同的aspects会有不同类型的抽象概念或具体概念。第三,以高等数学为例子,2018年有一篇《PNAS》的文章,研究人员扫描了特别出色的数学家在看到数学题(特别是复杂的数学陈述)时的大脑活动。他们发现极度抽象的高等数学所用的神经环路和一些基础数学类似,比如说顶内沟。然后这些从空间和时间当中抽取出来的抽象信息互相之间存在对应关系,可以彼此做一些解释。所以我想说,那些我们自己觉得是抽象的,是直觉的东西,并不等于它真的是抽象的,是直觉的。
而关于人脑是否为可计算的,我自己倒没有那么强的观念。但是我认为如果能够理解清楚的话,这最终会是一个双向的过程。通过用计算的描述,可以帮助我们更好的理解人脑机制。而更好的理解生物机制的话,最终有助于将它用数学表达出来。那从这种角度来说,即使不是逻辑性的计算,其他感知方面的话也是可以计算的。
@陈小平:
刚才做神经科学的两位老师都谈到了智能与计算的关系,讲的非常好,我也做点补充说明。首先对于神经科学的一些观察,我非常地认同。比如杨老师说到的,有些事情你没有意识到,却可以把这件事做出来,具体表现为一个行动,或者是一种思考。这个我是非常认同的。
而在人工智能里,就是把人的一些大脑活动,用计算的观点来重新构造。人工智能存在两种观点,其中一种认为人工智能是人类智能的人工模拟,强调人类智能和人工智能的原理是一样的,方式也是一样的。人脑用什么方式,或者人体用什么方式去完成一件事情,相应的,人工智能也用同样的原理,同样的方式去完成。这就是模拟观点。但是模拟观点不是计算观,计算观认为:人工智能是人类智能的人工实现或者计算实现,即人类的思维活动、相关功能及其能力是可以通过计算的办法实现的。当研究者弄清楚了人的思维活动时,便可以用已经发明的逻辑语言,或者说图灵机语言、计算机语言,把这个活动有关的所有因素、所有操作都描述出来。
计算观认为,人工智能不是用人的方式去再现人的思维功能或者过程,而是用穷尽的方式,也就是强力法来完成同样的任务,实现同样的功能,其所用原理和人脑是不一样的。这就是我理解的计算观点,不去追求模拟人的思维原理。当然这种观点,有它的局限性。过去认为,计算观之下,人工智能所执行的任务是有规则的,这就够了。这是过去的说法,但我发现这个条件还不够,所以我又提出更强的条件——封闭性。但并不是所有的问题都能够封闭化。那对这些不能封闭化的人类能力,人工智能能不能实现?
这在软件方面就碰到天花板了,图灵机就是天花板。因为软件最终是在计算机上实现的,而计算机就是图灵机。所以这是个非常强的限制。就目前来说,突破图灵机已经没人提了。毕竟不是想突破就能突破的。所以,软件方面要想突破,是非常难的。但这并不是说没有可能,而是难度比较大。
从硬件方面,比如一些人能做的动作,过去的机器人是做不了的,它们的运动控制实际上是遵守图灵机原则的。现在我们做了一些新的硬件,它们的控制原理不是图灵机原理,这样它们就能做一些之前做不到的事,比如说抓豆腐。就算没有传感器,也能抓豆腐,而这在一定的范围内就突破了封闭性。可现在我们也不清楚这样的机器人最终是不是还得归结为图灵机。所以我理解的计算观点,不是说人工智能做的这些计算和人脑是同一个原理,它们可以利用不同原理做相同的事情。
另外还有封闭性,就像之前所说的那样,当人工智能特别是软件方面处理封闭性问题时,我们就能够把人的功能通过人工智能的方式重新实现。对于认知来说,如果不认为认知完全是一个计算过程的话,那认知的封闭性就是另外一种含义了。所以,我完全认同晓力老师说的。
我再补充一个不成熟的看法——认知其实也是封闭的,但这个封闭和人工智能的封闭有不一样的地方。人工智能在软件方面的封闭是封闭在图灵机语言上,而人的认知封闭是在另一个“语言”上。这个语言是什么现在还不知道。但是我相信在任何一个给定的时间,人的认知一定是封闭的。
可是随着时间的发展,人可能进化。不管是软件,还是硬件,它都会进化。所以长远来看,人脑是不是封闭的,我现在不持观点。
@刘晓力:
毕老师和杨老师讲的很有启发,其实无论是大脑关于知识表征的情感和理性的双系统加工模型也好,还是关于人能调动多模态感知系统实时处理环境信息也罢,我们都是认可神经科学家目前的工作的。
但是关于两位讲的神经计算的概念,小平老师讲的非常清楚,就是指可以通过数学找到可计算的方法。现在认知科学做的很多研究,其计算概念已经默认了我们大脑是一个计算系统,我们所有的神经活动就是图灵机可计算的,这是认知科学建立之初的基础假设。如果说在大脑中的计算就是指神经元的连接方式的话,现在人工神经网络深度学习确实是在模拟这些活动,尽管还没有成功得模拟真正的人脑运作机制。
问题是,人脑真正的运作机制到底是什么?我认为人类和神经科学家目前对整个人脑的结构、功能和机制,还处在摸不着头脑的阶段。可能我们只知道人在处理某些任务时,或者说采取某一动作时,某些特定脑区的神经元在活动,包括神经细胞、血流等电生理活动。但把大脑所有的活动都称作计算,这个计算的概念就是用得比较宽泛的了,图灵可计算的概念是不可能把所有的人脑的工作基础、智能机制、思维机制、甚至包括情感,意识和无意识的机制完全表达出来。
当然,神经科学家可以通过某些数学的方式把人脑处理任务时的状态计算出来,还可以做函数曲线的拟合、图形匹配或者其它更复杂的图形化的说明,甚至把大脑看作一个动力系统对所处理任务随时间变化的过程进行偏微方程求解。但是,这样的计算并不都是图灵计算。不管是对自然界,还是对人的认知问题,我们可以利用更高等的数学去寻求其中的可计算问题的算法,通过编程和工程实现人工模拟的话,首先需要对于要解决的问题符号化为形式系统,然后编码化为计算机程序使机器工程实现。如果这些问题本身是可计算的话,例如下围棋等,就能找到一种算法一个计算载体实现。
如果问题本事是不可计算的话,那这个算法就不可能找得到,只能去近似模拟它。数学家或神经科学家、人工智能专家在用各种高等数学(例如高等分析、高等代数和高等几何,以及概率统计等手段)寻找算法的过程是数学计算过程,但这个计算不是指图灵可计算的概念。我想,计算的概念本身可能在今天的讨论中已经有很大的歧义了。
@朱锐:
@刘晓力:
@朱锐:
谢谢刘老师。现在我们邀请观众提问题。北京脑中心的孙聪老师问,我们有手段去理解和研究这些洞见吗?目前的研究手段其实也是具有局限和封闭性的?
@杨天明:
其实我非常赞同刘老师刚才说的一个点——我们对可计算的用词是有些模糊的。像刚才说的可计算性这些定义,在逻辑系统里面能否计算,其实是一个非常狭窄的概念。在我们看来,有些非常简单的计算,在逻辑系统里反而是不可计算的。比如你要在真实的物理系统里计算一个随机数,它具有噪音,存在很多的随机性。因为我们神经元的发放所产生的动作电位,这些都是随机的。况且,有很多实验证明,神经元层面的随机发放就可以产生行为层次的结果。所以,如果你要去细究逻辑系统的完备性,可计算性,那从这个角度上来说,是不可讨论的,没有意义。
所以我觉得对我们人脑计算能力的讨论,要更有意义的话,应该是指我们计算一个东西的空间复杂度、时间复杂度,即它需要多大的容量,需要多长计算时间。而不是纠结于从一个逻辑系统的角度来考虑你这个东西是不是完备,是不是封闭。在真实的物理系统里面,你能测量到的量都是实数,其中存在很多随机的噪音,就算抛开混沌系统这类问题,我个人也不觉得哥德尔定律,或者任何关于完备性的讨论,在真实的大脑系统里面有特别大的意义。这是我个人的观点。
@毕彦超:
我同意杨老师所说的。刚才刘老师有这样一个问题,我感觉很好玩:我们能不能计算出人脑的所有功能,或者说我们计算的到底是什么?实际上,从我们的角度上来看,无论是人还是猴子,小鼠还是蝙蝠,它的大脑如何工作、在完成什么样的功能?甚至对存在其中的特定的子系统而言,这些都是非常开放的问题,也正是我们研究的问题所在。
我经常拿颜色来举例子,刚才也说到很多东西是人的发现,不是人的发明。但事实上,颜色只是光的波长。世界上本身是没有颜色的,它完全是人脑构建出来的一种感受。如果换一种动物,比如说狗,它看见的颜色和我们是完全不一样的,而蝙蝠甚至看不见颜色。好玩的是人会发明出很多系统去改变人的感知。以大家熟知的语言和思维的关系为例那样。请问,当你使用不同的语言、不同的词汇的时候,它们会不会影响到你的颜色感知?其实科学家们一直都在做这样的研究,而越来越多的证据表明,不同语言的人所习得的不同颜色的词汇会非常早地——在100毫秒的时候——影响他们对颜色的分类和感知。
所以说人脑所有的功能其实是人脑本身发明出来的东西,甚至人脑这套系统都是如此。小孩在学习的过程中,很多时候会认为世界是连续的。但在他学习的过程当中,你给他的一个词汇,这会帮助他把这个世界进行切分。而你给他不同的语言的话,则会帮助他将世界切分成不同的方式。所以说,无论是人,还是其他的动物,用什么样的信息去计算生物体的功能,这些都是开放的、好玩的问题。
回到刚才听众问的问题,洞见这种东西可以去研究吗?实验手段是不是有封闭性?首先实验手段肯定有有限性,就如我跟天明之前所说的那样。尽管我们两个因研究对象不同,其实验手段也有一点点区别。在人身上,我们是不太好做有损伤的实验的,所以我们做一些高精度的时间和空间分辨率的实验,比如单细胞活动的记录。而如果需要做损伤类的实验,在特殊的情况下,我们也可以做,比如在癫痫病人脑子里直接插入电极进行观察。而对动物来说,我们可以通过损伤来做实验。也就是说,在人身上,尽管可以去观察脑损伤的病人,但这样的实验手段肯定是有限的,受到很多伦理和技术的限制。当然,实验手段也在不断发展的。
第二,只要你能够把问题定义了,那这样总是可以去研究的。比如洞见,虽然我自己不做,但我还是看到很多好玩的研究。研究者把被试放在一些特殊的实验环境里,给他呈现一些可能建立起特殊关系的材料。在相应的特殊情况下,人们可以通过比较快速的直觉来解决这种问题,然后研究者去观察此时神经活动发生了什么变化。比如说在人们发现直觉和洞见时,其视觉皮层的激活会减弱。就好比你进行深度思考时,有时你觉得你在看像远方,视觉当中好像存在一片空白。当然这个发现目前还比较肤浅。但首先承认这些问题是非常复杂的,也非常的出色。然后当前的实验手段确实存在一些限制,但我还是认为这是可以研究的问题。尽管能否研究清楚是另外一个问题。毕竟,这还涉及到我们怎么才算真正理解这样的问题。
@朱锐:
还有一个问题是王球老师提出的:请问杨天明老师,您说人类与其他动物种的区别在于元认知。但我们存在如此丰富的物种其感知、认知、群体和行动能力也千差万别,目前有统一的理论框架去理解人类之外的一切动物吗?谢谢。
@杨天明:
这个问题非常好。关于刚刚谈到的人类元认知能力纯粹是我个人的意见。目前领域内是没有任何共识的。但不同的动物的神经系统非常不一样。比如说章鱼,它们也有一套非常复杂的中枢神经系统。如果我们认为它有大脑的话,那它的大脑跟脊椎动物、哺乳动物的差别就非常大了。它们是两类完全不同的进化。因为章鱼本身是在海洋当中生活,它有8个触手,所以科学家们研究发现章鱼的中枢神经系统有更多分布式特点。可能它每一个触手都会有自己的,从某种程度上可以说是意识的东西,然后它的中枢系统再把分布式系统整合在一起去做决策。这种模式跟我们的人,跟我们所熟知的哺乳动物,差别就非常大了。
所以说,我们通常非常习惯我们人类的智能是怎么解决问题的,但这显然不是解决问题的唯一方法。可以想象如果在一个环境非常奇怪的外星球上,也许会有跟人类完全不一样的大脑、不一样的组织、不一样的计算方法在解决问题。这些都是我们所不知道的开放问题。神经科学领域的主流还是聚焦在人或者类似人的系统中,如去研究猕猴的大脑是怎么解决问题的。我只能说这么一点,如果大家有兴趣的话,可以去看一些关于大脑进化的书。等回头我会在网上贴一下我推荐的书单*,大家可以去看一下。我觉得这会对大脑的理解非常有帮助。
*推荐书单
1. Brain through time – A natural history of vertebrates by Georg F. Striedter & R. Glenn Northcutt
2. The deep history of ourselves – The four-billion-year story of how we got conscious brains by Joseph LeDoux
3.Other minds – The octopus, the sea, and the deep origins of consciousness By Peter Godfery-Smith
@朱锐:
武汉大学的蔡恒进老师要求加入我们的讨论。
@蔡恒进:
我想回到最核心的问题,就是刚才朱老师讲的,人跟图灵计算、图灵机之间的差别就在于人会犯错误。这是非常关键的点。假如这个世界是可计算的,那从认知科学或者我们自身的体验来讲,我们之所以觉得自己跟这个世界存在强烈的冲突,主要就在于我们对图灵可计算的理解实际上是有缺陷的。
当然就算从基础讲,从柏拉图传统、爱因斯坦的大统一模型,到图灵计算,这些都是一脉相承的。实际上,几乎每一个人都会受思想的影响,但这个思想本身可能是有问题的。
我想讲的是什么呢?就是图灵计算听起来是说我们所有的东西都可以说成是图灵可计算的,但实际上(像陈老师刚才也讲了)我们不能超越图灵计算。这一点恰恰是错的,我也是通过十几二十年的思考才达到这个结论。这个关键就在于图灵是说人是可以犯错的。举一个简单例子——芝诺悖论。阿基里斯追不上在前方的乌龟,这个逻辑很简单。当你走到乌龟上次经过的位置,乌龟就已经走出去了一段距离,你还得去追,但他还会走,那么这就是一个悖论。可我们都知道,阿基里斯一定会超过乌龟。问题就在追赶上一个位置这样的形式化下,我们是没有超越乌龟的可能。而图灵机实际上就相当于是一个完全形式化的系统,它不允许犯错误。一旦有错误,所有的论证都失效了。比如说停机。因为对我们真正的物理系统来说,我们人的系统是会死的。我就是说实际上人不是图灵可计算的,就这么一个结论。细节就不讲了。
@朱锐:
各位老师有没有想要回答的?
@陈小平:
我们做人工智能,做机器人,还是从我们行当出发吧。相关的问题我们也很关注,但是人到底是不是图灵可计算的,我确实没有一个明确的观点。刚才蔡老师谈到允许犯错,这确实非常重要,这也是计算机、人工智能一个基本约束。
当然犯错是一个粗略的说法。说的更具体一些,就是我在封闭性准则里提到的两个准则。其中一个是强封闭性准则。强封闭性准则包含失误非致命性条件。有的时候,人工智能可以犯错误,只要不致命(不一定是死人了),即只要是用户可接受的错误,那这个时候就比较好办。比如说聊天程序。其实聊天这个事是非常难的,但为什么很多人做,原因就在于它有失误非致命性。假如聊天聊出问题了,怪聊天程序,这没有人会认同的。所以,在这种情况下犯错是没关系的。而如果出的问题有致命性,对人工智能和计算机来说,就无法接受了。这也是非常大的一个约束,所以这一点我确实是认同的。
补充一点,除了犯错以外,还有一种现象——融差性,融是融合的,融汇的融。我们认为人之所以有更强的能力,是因为人在利用误差,利用偏差来完成任务。而这个现象是不是能归结为图灵计算?我们现在倾向于不能归结,但也还没有定论,所以可以讨论的问题还非常多。
@朱锐:
好,谢谢。请问几位老师,怎么看待 情感计算的发展,比如现在流行的,用神经网络预测人类看到一段视频、一副图像所产生的情感、情绪,用计算机判断一个具有主观性、复杂性、微妙性的感知问题,它的局限性在哪?
@毕彦超:
我觉得情绪体验是个非常复杂的过程。我们以前以为这是一些简单的分类,简单的杏仁核神经反应。但我觉得比这个复杂得多。而如果把人特定的主观情绪体验作为一个模拟的对象,那就是把它当成一个数据集,我觉得这是可以模拟的。但是,是不是可计算,我就不懂了。
@刘晓力:
我想现在的智能机器还没有达到产生真正情感这样的程度。刚才毕老师讲得很好,我们让人工智能做的不过是一种情感的模拟,我认为更多的还是从表情和行为动作上去模拟人的情感。虽然在很多方面已经做得很好了,但这还是相当初等的。可以说现在机器人的情感都是假的,并不是它们真正有情感。但从某一个侧面,比如从表情或者行为动作上看上去它们能做的很好。现在,情感机器人都能作伴侣谈情说爱,目前甚至有网上约会的男女恋爱机器人,外形行为和表情都相当逼真。但这些在我看来,都是在图灵可计算的条件下做出来的人工模拟。我想,人类情感是发自内在的,主动的一种主观体验。所以,在我看来,目前的情感机器人只是在缺少自主性的模拟的初等层次。
@陈小平:
我说两句,现在这个问题,我们有两个组在做相关的工作。从很实际的项目角度来看,某些种类的表情所反映的人的心理状况,是有可能通过大量数据训练来形成。就是刚才毕老师提到那种方式,通过大量数据训练达到比较高的准确率。但是不是所有的表情、所有的心理活动都能够通过训练来识别的?特别是人有时候表情都是假的。所以从原理上,我是同意毕老师说的,也同意刘老师说的。
现在这部分工作是从应用的角度去做的。一些实际应用部门非常需要这样的情感机器人。比如说有的部门就提出要求,要能识别用户是不是马上就要发火了。如果这个能识别的话,就非常有用。毕竟,等用户发火了,吵起来了,后果就很严重。但做起来当然不容易,需要提前识别人的情绪变化。如果是已经发火了,那好识别。但要提前识别,这个就很难了。
@杨天明:
我想说两点。第一点,我们的人工系统是为人服务的,那么为人服务就要跟人之间有交流。跟人之间有交流,就需要理解人类的情感。从这个角度去考虑,为人服务的人工智能系统需要理解人的情感。但我另外想说的,情感其实并不是一个智能系统的必要组成部分,如果脱离了为人服务框架限定的话,是完全可以做一个不需要情感的智能系统。
另一方面,从我们自己对大脑的研究工作来讲,据科学家最新的研究发现,情感相关的神经环路其实跟价值计算的神经环路在很大程度上是重合的。我们知道价值计算是我们大脑做决策里非常重要的一个步骤。我们做决策的一个基本原则就是趋利避害。从这种角度上来说,情感计算本身其实跟价值计算是重合的。这跟我刚才说的直觉有很大的相通的地方。我在做价值计算,有很多部分是不需要用逻辑来算的,是我们意识下的层面,神经环路唰一下就算出来了。然后我们主观的体验就是情感,你觉得这个东西好或者这个东西不好,你看到这个东西高兴或者不高兴,依赖于计算的结果去做决策,同时我主观上感受到了这种情感。
@朱锐:
刚刚有一位线上的听众问的就是这个问题,关于价值计算或者是道德选择的计算。刚才杨老师已经回答了,谢谢杨老师。现在没有机会深入讨论这个问题,下一次我们会继续请杨老师深入地谈情感或者是价值计算的问题。
另外一个问题是这样的,根据哥德尔定理,目前的计算机是有局限的,因此人的大脑也是有局限的。认知是否可以分为大脑和心灵的两部分?认知科学是否局限?
@陈小平:
这个问题比较开放,好像不太好回答。听刘老师多次提到过,大脑、心灵是有区别的。在中国文化里,也有这样类似的区别。现在人工智能做的,大脑也没做到,我们只能说我们希望用这个机器实现一部分人脑的智力功能。实现的原理有可能跟人是不一样的。这样一说,就显得人工智能其实还很不错。
我想把这个事情强调一下。我前面提到了AlphaGo,它其实非常厉害,有人说AlphaGo至少20段,柯洁说人类下围棋下了几千年都是错的。下围棋完全是人的智力活动,为什么现在人工智能能做得这么好?因为人工智能也就是AlphaGo下围棋,和人下围棋的原理是不一样的。它是封闭化的,只考虑落子。棋盘上有361个落子,加上1个Pass,那就是362个落子。AlphaGo只考虑362个落子在不同棋局下的胜率。所以这个问题就封闭化了,和对手无关了。面对所有对手都是一样的。那这么做的效果是什么?就是远远超过人类。下棋超过人类倒是无所谓,尽管对棋手来说几乎是灭顶之灾,可过了一段时间之后也就无所谓了。现在很多棋手天天和AlphaGo下棋。利用这样的技术,对人类的帮助其实是非常大的。人类面对的很多问题,自己是解决不好的,人工智能可以帮助我们把这些问题解决得非常好。
但另一方面也存在一些风险,有些问题如果让人工智能做了,会产生一些我们不想要的非常严重的后果。这又是我们需要密切关注的。所以,在不同条件下到底会出现什么情况,其后的发展空间、产生的后果、影响的广泛性和深刻性,这都是难以想象的、值得关注的。我也希望有更多的人来关注这件事情。
@朱锐:
伦理学上存在道德是否具有情感的争议,但是有人认为伦理不能还原为情感,人类似乎能够超越自身的一些冲动和情绪。因为我们会因为一件事情仅仅是正当的、和善的,就去做一些对个体和人类群体生存有害的行为。有没有老师想回答这个问题?
@杨天明:
我觉得在这方面并没有严肃的神经科学的回答。首先,我认为道德当中有很多情感的因素。然后,我们平时思考的一些道德问题,推理的问题,我觉得都有一些后知后觉的成分。也就是说我们先预设了一个结论,然后想努力地证明这个结论是对的。当然,我这是瞎说,也只代表我个人的一种看法,并没有任何科学的成分。
@刘晓力:
今天谈认知科学的局限实际上假设了等同于传统认知科学第一代纲领的局限,可以说是狭义的局限。只谈最初建立认知科学时的假设,人脑就是一个计算-表征系统,而且还要坚持人脑就是一个图灵可计算的系统的话,那这就是认知科学最大的局限。从另个角度,广义的认知科学是七大学科构成的学科交叉群。神经科学和人工智能只是其中的两个最活跃的子学科,此外还有哲学、心理学、语言学、人类学和教育学等其他学科。我相信交叉研究本身一定是有局限的,但不同学科的交叉对话会提供更多的对传统的研究纲领的不断修正。这个也是我们讲的另一层面的认知科学是否具有局限的问题。我们之所以要做这样一个跨学科的论坛,就是要把这样的问题打通,而不仅仅局限在一个学科的角度思考问题。
@朱锐:
我借此跟大家分享一个小故事,认知科学的局限这个问题实际上是在另外一个场合——刘晓力老师讨论哥德尔定理的时候,毕老师提出的问题。我当时觉得毕老师的问题特别好,所以今天再拿来讨论。
@毕彦超
我觉得这也不光是我自己提出的,因为我自己的话,并不知道他们的关系。刚才天明也说,我们做这些方面的时候很少去想这些问题。因为它作为一个自然研究的对象,还在不断带领我们不断进入新的世界。我上次之所以会问到,是因为哥德尔他自己也确实提过,我有点好奇他为什么这么说。所以我觉得今天至少是一个学习的机会,更好澄清了不同的领域当中,对于所谓的计算或者是不同类型的智能,它们自身的局限。
然后我也觉得,不同学科当前所关心的问题有一些差别,相关的定义也并不完全一样。能不能通过这种跨学科的讨论去突破学科自身的局限,我希望会对未来有一些思考和帮助。
@朱锐
这个问题大概也是算是一个评论,是对陈老师提出的。这位同学说,封闭化形成的将是一个原本非封闭的问题,如一个应用场景变成封闭的具体手段,包括场景裁剪和场景改造。所以封闭化不是永远可行的,但在产业中的很多部门是切实可行的。
@陈小平
我觉得这个问题提得非常好,最近几年,我特别希望有更多的人,尤其是产业的人能关注封闭性和封闭化。最近几年,我参加了国家的一些规划,也做了比较多的调研,去了很多企业,包括从最大到最小的,很多人工智能企业和机器人企业。我发现,现在国内普遍有一个方面还有很大提升的空间——国内的一些企业,特别是一些比较新的企业,他们往往会把基础研究中的一些最新的成果直接拿来做产品。他们并没有进一步分析,这些技术现在是不是到了可以做产品的阶段,而是简单地认为最新的那就是最好的。
所以在这种情况下,就更需要我们的企业能够对自己产品所用的技术做更深入的分析。如果你认为自己的技术是人工智能最强技术,它一定能成功,而不管这个技术是否可以应用于非封闭化的场景,按照这样的想法就会存在非常大的风险。
用人工智能技术去做应用,通常希望在比较短的时间内达到预期目标。这个时间一般是不超过三年的,有的企业是做技术的,可能做的时间长一点,但也就10年到15年。我的预期是,在未来15年内,主要依靠现有人工智能技术,其中大部分技术的应用需要对场景进行封闭化。所以在未来15年之内,我们就面临这样的问题——如果盲目地用一些最新的技术去做产品,这不仅对我们企业是非常大的损失,对整个中国产业的发展也是非常大的风险,所以希望能引起更多人的重视。
@朱锐
谢谢各位老师在百忙之中给我们观众带来精彩的讨论。尽管这个论坛在很多方面估计不尽人意,但这也只是一个开始。此外,我们相信这样跨学科的讨论会,不仅会成为一个大趋势,而且在某种意义上会带来一定突破。我觉得哲学跟科学之间的交流,不仅仅对哲学有意义,对科学也非常有意义。
在两周之内,我们很快就有第二期的论坛,四周以后还会有第三期。第二期讲理解,第三期是讲洞见,会持续今天讨论的内容。欢迎大家来参加,然后再次感谢神经现实、集智俱乐部,谢谢刘晓力老师、毕彦超老师、陈小平老师,还有杨天明老师,非常感谢。希望以后有更多的合作。
主持人:朱锐 | 嘉宾:毕彦超、陈小平、刘晓力、杨天明
整理:EON、光影