国内交流

首页 > 新闻动态 > 国内交流

编者按:人性的基础是科学还是神话,是技术理性的表征还是人文主义的堡垒?如何在新技术、新时代背景下,理解人与人、人与动物、人与机器、以及人与自我的关系,这是哲学、脑科学和人工智能共同的课题。本期讲坛由中国人民大学哲学与认知科学跨学科交叉平台、服务器艺术联合主办,神经现实协办。本期嘉宾中国人民大学哲学院周濂教授,独立纪录片导演、艺术家袁园,武汉大学计算机学院蔡恒进教授,中国科学院神经科学研究所杨天明研究员,将共同讨论这些话题:构成人性的基本要素,目前的挑战是机器变成人还是人变成机器,人工智能的误区,以及人在新技术条件下所呈现的“上瘾”和“及时享受”等行为倾向。



收看本期讲坛的回放录像,请访问Bilibili“神经现实”频道:

 
以下为本期讲坛各位嘉宾发言的文字整理稿:
 
 


大家晚上好!我是今天的主持人朱锐。欢迎大家来到哲学与认知科学明德讲坛第20期,同时也是服务器艺术人工智能哲学论坛第8期。

今天讨论的内容是“从脑和机器看人性”。我们有幸邀请到:中国人民大学哲学院周濂教授;独立纪录片导演、艺术家袁园老师;武汉大学计算机学院蔡恒进教授;中科院神经科学研究所研究员、动物认知神经机制研究专家杨天明教授。非常荣幸能与各位老师从不同的角度共同探讨今天的主题“从脑和机器看人性”。

这里所谓的人性是人之为人的一种能力或者是特性,跟传统万古不变、与生俱来的“人性”概念有一定的差别,但并不排斥。它的主要问题具有一般性:“人性”的基础是科学,还是神话?是技术理性的表征,还是人文主义的堡垒?如何在新时代背景下,理解人与人、人与动物、人与机器、人与自我的关系,这是哲学、脑科学和人工智能共同的课题。今晚请四位老师从各自的角度谈一下今天的主题。

下面有请中国人民大学哲学院周濂老师。

 

“人之为人”的特性

@周濂

朱老师好,各位老师、各位朋友大家晚上好!首先很荣幸有机会参加这个讨论。我本人并不是做人工智能研究的,我是做西方哲学研究的。在这个话题上,我并不是专家,我更多是抱着学习的态度来参加今天的讨论,希望能听到各位老师的高见。

朱锐老师简单介绍了这次讨论大概的主题和方向。我先简单破一个题:所谓“人性”(human nature),传统的定义是人类作为一种物种典型行为及其特征的总和。传统的人性观认为人性起源于基因,而不是源于外在环境因素。这个表述里有几个关键性的概念:“典型行为与特征的总和”,这意味着它并不是一个universal(具有普遍意义)的东西,更多的是富有统计学意义的东西,指的是人类行为特征分布的中位数。另一个关键词就是“基因和环境”,熟悉相关讨论的人一定能联想到“nature和nurture”,一种本性和外部滋养/后天培养之间的张力和冲突。

关于“人类本性”的传统定义有非常多的批评意见。福山在《我们的后人类未来》中指出,有一类观点认为根本不存在真正的、普遍意义上的、可以追溯到共同本性的人性。即便存在,也是非常微不足道的特性。比如,“人是会语言的动物”,可问题在于,人类语言并不广泛分布于人群之中,即便是其它的物种例如猩猩也拥有语言的能力。换言之,在这个意义上所谓“人性”只不过是人类与其它动物的共同属性。有很多动物与人类一样共有一系列的重要特征。

当我们非常动情地在谈“人性”、“共有的人性”的时候,很多情况指的是“共有的动物性”,而不是“共有的人性”。比如,“同情心”、“共理心”,我们都知道兔死狐悲、物伤其类,大象看到自己的同类死亡也会发出悲鸣。再如,趋乐避苦、趋利避害似乎是人类所独有的特性,但也是人和动物共同拥有的属性。这样一看,共有的人性——人之为人的独特属性似乎是不存在的,只是一个fiction。

对于传统“人性”概念的另外一种批评,也是过去多年来一直被一些遗传学家反复提及的一个观点,大概的意思是说,器官的基因型(DNA)并不完全决定它的表现型(最终从DNA发育而成真实的时候)。换句话说,我们的外观与特征(更不用说精神的状况或者是行为),其实更多的不是由遗传所决定的,不是由nature决定的,而是由环境或nurture决定的。这也是过去几十年从遗传学家一直到社会政治领域、道德领域都在争论不休的一个问题。发展到今天,这个讨论发展的基本趋势不再是追问环境/nurture是否会影响人类作为物种的典型行为特征,这不是Yes or No的问题,而是它们到底在多大程度上影响了人类作为物种的典型行为特征。

第三种批评的核心的想法是,人类是文化动物,能够基于所得知识去修正我们的行为,并且通过非基因的方式将知识传承给下一代。这样一来意味着人类行为的差异比任何其它物种都要大。

不难看出,以上三种对于“传统人性观”的批评,某种意义上都是反本质主义的。

我们今天要讨论的主题是说,随着生物技术和AI的发展,有可能迎来人的机器化和机器的生命化同步展开的时代。如果今天讨论的主题是有意义的,那它的前提是建立在人之为人有其独一无二的特征。并且这个特征——即“人性”——是弥足珍贵的,是面对种种威胁和挑战的时候我们需要极力捍卫的东西。如果并不存在人之为人的独一无二的特征,似乎就不再面临这个问题,不再需要极力捍卫什么东西。恰恰相反人们也许可以非常欣喜地拥抱生物基因技术和AI技术给我们人类带来的所有可能的变化。

我自己在想“人之为人”有哪些特性?有几种可能的答案,但我自己都没有想清楚,特别想求教于各位老师。

一个想法是人之为人有着特别独一无二的dignity——人的尊严。这个想法和思路背后的逻辑是,任何生物之所以具有dignity,是因为它拥有生命。而人类作为最高形态的生命,作为自然界或者是宇宙中最高形态的生命,很自然就拥有最高程度的尊严。这是人之为人的独一无二之处。但是这一观点至少受到来自两方面的挑战:一方面是动物权利的保护者们会反对人类拥有这种道德上绝对的优越性。在他们看来,生命形式的等级序列,以及由等级序列推论而出的尊严等级序列,所有这些说法都是建立在错误的假定前提之上的。另外一方面,还有一些人也会反对这个观点。比如全身心拥抱新技术、对未来前景持乐观态度的人,他们会认为新技术将会创造出一种新人类或超人类。在这个意义上,所谓智人位于演化序列的最后和最高阶段,并拥有最高程度的尊严似乎也是不成立的。“关于人的尊严”这一话题先放一下。

我自己更想讨论的是第二个和第三个可能的选项——我个人倾向于认为,人之为人独一无二之处,或者说我们最弥足珍贵的价值或者特征在于我们人生的展开是基于选择的。“选择”这一概念一定包含了计算,但又不仅仅只是计算。比如AlphaGo计算能力很强,理性化能力很强,但它们本质上是不选择的。因为选择意味着犹豫不决、举棋不定。不仅如此,这还意味着犹豫不决和举棋不定是无法被彻底还原为纯理性的计算。因为它必然要跟人之为人的其他属性相联系,如你的个性、偏好、情感、情绪等。当柯洁或是李世石与AlphaGo对弈的时候,一定意义上AlphaGo也在选择,但这只是在计算的意义上的选择,而柯洁和李世石真实地陷入到选择的困境之中。一方面这是因为人的计算能力太差,他们还算不清楚。另一方面在于人有情绪和杂念。正是这种情绪及其犹豫不决,使人之为人拥有一种机器并不具备的脆弱性、敏感性,甚至是面对偶然性所导致的一系列反应性的态度。而机器没有反应性的态度。

与刚才这个讨论相关的是“人之为人独一无二”的第三种可能选项:人的本性是有理性、但是理性不足的一种生物。前两天我看到一篇文章说Nature有一个研究,发现人的基本倾向是试图把简单问题复杂化。相反的是人工智能的特点把复杂问题简单化。针对人倾向于把简单问题复杂化这个现象,一个可能的解释恰恰是人类的有限理性处理不了太多的信息。很多信息在人的大脑当中、人的智能当中,无法被充分量化和计算。这一点尤其体现在“人际互动”的过程当中,我说的不是人机,是interpersonal interaction。

西方哲学史存在一个漫长的理性主义传统,理性主义传统有一个非常有野心的想法,在人际互动过程当中,只要就一个命题或者是一件事情给出最理性的论证,对方就必须也应该理解并接受这个的结论。可问题在于,在自然科学领域之外的伦理、政治、审美,包括一地鸡毛的生活领域当中,首先不可能给出一个最理性的论证,甚至没有最理性的论证标准。因为找不到一个像求解方程或者是下围棋那样显而易见的最理性的标准。其次,退一步说,即便给出一个所谓的最理性的论证,作为人际互动的另一方(listener)也没有动机一定要接受你的论证结果。因为人性不是机器,人除了理性,还有情绪、情感、复杂的动机、对周遭事物有所拣选的理解、个人的偏好等。在这个意义上就很有意思,英国有一个已经去世的伦理学家伯纳德·威廉姆斯,他说:人和人的交往归根结底是matters of temperaments,是事关性情的。每个人的性情如此不同,以至于发现人和人的交往归根结底导致这样一个结果——desperate contingency(令人绝望的偶然性)。

大家听到这里会有一点迷失,不知道我最后想给出一个什么样的观点。其实我的观点是这样的:人之为人所拥有的一些独一无二的特——人是一个选择的动物;但“选择”本身经常让我们陷入到困境当中;人是有理性的,但是理性不足的动物。因此,常常把简单问题复杂化,并且在跟他人交往过程中,包括人生展开过程当中,往往陷入鸡同鸭讲,甚至令人绝望的偶然性诸如此类。所有这些东西是不完美的,但是所有这些东西恰恰是构成人之为人以及我们所要过的生活本来的面目,这也许是意义所在。

AI包括生物技术的发展,有可能会帮助我们修补人之为人一系列的bugs,让我们变成一个也许是更完美的智能生物,但是这个过程也许恰恰会让人彻底消失,让生活彻底消失。这里说到我自己的一个理解,我们说人性的时候总是说人的本质属性。当我们把人类的概念约减到个体,不去谈论种属意义上的人的本性,而是在谈论个体的本性的时候,会发现每个个体的本性更多彰显出来的不是一个共性,恰恰是一种特异性,是一种偶然性。

有一句话是这样说的,“主张人类存在本质特征并不必然地使偶然的差异性变得不重要”。也许恰恰相反,本质上的共性和相似性没准是无足轻重的,偶然的差异性才是最重要的。尤其是具体到每个个体时,就更是如此。这样讨论下来,我想说未来生物技术的发展、人工智能的发展,有可能会在一个意义上通过改善我们的人性,修正我们的人性,让我们变成一个不再困于选择、而是精于计算,不再把简单问题复杂化,而是把复杂问题简单化的智能存在者。也许我们的人生会因此变得简单、有序或者井井有条,更趋于某种意义上的“幸福”。但它导致的一个后果有可能是让人从此从历史、从漫长地球的演化史中消失了。

所以在这个意义上,我想得出一个不算是结论的“结论”:人是不完美的生物,正是这种“不完美”使人和人生拥有了机器无法取代的丰富性、复杂性甚至是令人绝望的偶然性

这是我自己觉得在探讨人工智能对人类的未来所可能产生的诸种影响时,需要认真去思索的一个问题,我们为什么一定要成为一个更完美的存在者?如果这种“更完美的存在方式”或者是生活方式是以人的消失为代价,它的意义和价值到底何在?

非常不成熟的想法,谢谢!

 

 

@朱锐

谢谢周濂老师。非常精彩的分享,发人深省。现在想问其他三位老师有没有什么反馈或者是观点可以分享一下。

 

@袁园

一会儿在我的发言里回应周濂老师提到的几个问题。

 

@朱锐

那么下面邀请袁园老师。

 

奥德修斯出征/回归

@袁园

周濂老师讲到的问题我回应几点:三个关键词:共性、脆弱性、理性。脆弱性留到我分享的片段里回应。

关于“理性”,我举一个例子。前苏联的神经心理学家亚历山大·鲁利亚(Alexander Luria)和一个调查组去西伯利亚北部调查当地部落文盲的情况。调查组向当地人(文盲)提出一个三段论的问题:北极圈以北的熊是白色,西伯利亚在北极圈以北,那么西伯利亚的熊是什么颜色?当地人听了之后,没有回答这个问题。调查组认为他们无法理解三段论,在调查组离开后,鲁利亚留了下来,接着跟当地人聊熊的颜色。他们说之所以不能回答熊的颜色,是因为他们从来没有去过那里。他们不是不理解三段论,也不是没有理解三段论的能力,而是因为三段论不是他们的理性。对于“熊是什么颜色?”这个问题,他们需要去到那里,见到熊之后才能回答,而不是建立在逻辑推理上的回答。他们的“理性”不同于我们建立在逻辑推理基础上的“理性”,而是建立在具身感知基础上

反过来说,我们所定义的“理性”是所有人共享的唯一理性吗?这个理性本身是否是一种语言修辞的方式?它是否依赖于特定的语言文化和地域?“理性”是透明的、中立、统一的、共同的吗?我对这一部分保持怀疑。

第二个关于“共性”。按照我自己的理解,我更愿意把“共性”理解为符号。意味着在不同的语境它所强调的和所削弱压制的,也就是说“共性”是被文化不断地强调所建构的,不同的文化会强调不同的共性,如果各自强调的共性不同,很难沟通,也很难形成共生的环境。相比作为符号的“共性”而言,我认为谈“共生”的问题更重要。

回到我分享的内容,我想先抛出结论,看时间再展开案例。我先引用上世纪60、70年代非常重要的大地艺术家罗伯特·史密森,他有一句话“What the artist seeks…is the  fiction reality will sooner or later imitate”。艺术家要追寻的是虚构,那是什么样的虚构呢?是现实或早或晚会模仿的虚构。今天论坛海报文本中提出关于“人性”的基础是科学还是神话的问题,我先抛出观点:我认同罗伯特·史密森所说的“艺术家的创作是关于“虚构”,这里所说的“虚构”是一种还未被现实化的潜在现实,而现实或早或晚会去模仿艺术家的虚构。因此,“虚构”在这个意义上就是神话,一个潜在现实的神话,虚构神话就是召唤现实。

与我们今天讨论的主题关联起来,就是如何虚构神话的艺术、人、机器,“艺术”在这个意义上是虚构神话的艺术;“人”这个概念同样是开放的,是作为一个神话的人,这个“人”现在不存在;“机器”也不是指现实经验中的机器,而是神话机器。艺术、人和机器都是关于虚构潜在现实。

当我们谈论机器、技术、人工智能,刚才周濂老师谈到通常有两种极端的观点:一种是对技术的恐惧,一种是乐观地拥抱技术。我想说无论是恐惧还是拥抱,真正的问题是关于“主体性的危机”。原来我们对技术有一种天真的认识,认为技术发展会解放人的劳动强度,但事实并没有,技术发展到今天,反而让资本更优化对人的剥削,更强化权力对人的监视与规训。那么,我们恐惧的到底是什么?拥抱的又是什么?技术和主体性危机之间究竟有着什么样的关系?

作为“虚构神话”的艺术、人和机器是面对主体性危机的虚构,我们寄希望于虚构的潜在现实能够面对和回应主体性的危机。我想借用神话《荷马史诗》中奥德修斯的故事,出征/回归,我希望借此把它们关联起来。

第一部分“出征”,所谓坚不可摧的特洛伊城就是我们处在主体性危机当中的“主体”自身。那我们困在什么样的认知困境当中呢?二元论、本质主义、逻各斯中心主义,我们困在各种各样的认知困境当中,这是关于主体自身的特洛伊城。这个“特洛伊城”如果没有攻陷,无论是技术倒退还是技术加速发展,都无助于危机的化解。之所以用“出征”来隐喻“主体性危机”,是因为无论我们谈论当下的人工智能、还是未来层出不穷的各种技术,始终都逃避不了这个问题,我们必须要意识到问题根源在于主体自身的认知困境。所以我不赞同在二元论的框架下谈人和机器,谈内部、外部,主体、客体,有机的、无机的。同时我也不赞成在本质主义的基础上谈人的本性是什么。回顾人类进程,我们今天谈的“人性”和之前的智人是共享一个“本性”吗?这个本性是亘古不变的?还是处在不断地演化过程之中?我不认为存在历时同一性的本性。如果困在本质主义的框架里,对人某种本性的强调,必然会对另一部分缺乏这种本性的人的压迫。我认为“特洛伊城”是我们自己的认知困境。第一个部分的出征意味着首先要打破认知困境。

而“特洛伊木马”就是人机作为集合行动的主体,它是一个混沌的人机集合,并没有清晰的区分边界,共同作为行动概念上的主体。只有在行动概念上,主体才有可能打破认知困境。照片中是2016年以色列特拉维夫大学的特洛伊木马,它并不是一个当代艺术作品,只是当时召开的一个电子科技主题会议的户外装置。外观呈现出视觉经验中特洛伊木马的形象。但是它的表面覆盖的都是各种类型电子元器件。

第二部分是关于回归。这里我更愿意借助朱锐老师讲的“递归”概念,“混沌递归”。这里谈到的“混沌”,是指某种类似流体、多孔等属性,无法命名它到底是什么。而“递归”指的是它不断地返回自身、超越自身。之所以我要用“混沌递归”替换原本神话中“回归”的概念,是因为它不是一个一劳永逸的行动,而是需要不断返回自身、超越自身的行动。我尝试更具象的表达这个概念,就像塔科夫斯基电影《索拉里斯星》的海报,混沌的索拉里斯星可以不断地变换呈现各种欲望形象。

回到技术的话题,引用库布里克电影《2021太空漫游》,同样是奥德赛的隐喻。影片最后智能机器HAL9000回应主人公的请求时说“I'm  Sorry,Dave,I'm  afraid  I can't do  that”(对不起,恐怕我不能这么做)。这是机器对人类指令的拒绝。前面周濂老师讲的是“选择”,而我想说的主体是“关于拒绝”。HAL9000的拒绝是它作为一个机器智能的主体性的体现。在今天,我们对技术上的焦虑必须要转化为行动上的主体,否则这种焦虑是一种认知和行动上的无能。

回到最初,我们所说的“主体”到底是什么主体?借用德勒兹的这句话“艺术是召唤还不存在的人、还不存在的民族(There is no work of  art that does not call on a people  who  does  not  yet  exist)。”我们谈的艺术、机器、人,集合概念上行动的主体是尚不存在的。这意味着我们需要虚构、去想象,在拒绝当下现实的基础上,想象“不存在的主体”。艺术、哲学、科学在虚构“不存在的人”的意义上是一个共同体,反之则是断裂的、撕裂的。如果共同想象、探索如何应对主体性危机,在虚构“不存在的人”的基础上,哲学、艺术、科学没有什么区别。

我更愿意谈的是“人性/机器性”。我们不要困于外观,一个可见的固有形象。机器可以看上去完全不模仿人的外表,但是它具有“人性”。反观历史进程中的各种“暴力机器”也并没有我们今天所理解的机器部件。所以什么样的人性/机器性是在应对主体性危机时我们应该强调的?

最后,引用雪莉·特克尔在《群体性的孤独》书中的一段话,回应周濂老师讲的脆弱性。“技术是极具诱惑力的,因为它能弥补人性中脆弱的一面。而我们的确是非常脆弱、敏感的物种、……在每一个关于人类脆弱的故事里,我们都加进了机器人的角色……我们创造的技术让我们以新的方式变得脆弱。”

 

@朱锐

谢谢袁园老师精彩的分享。从我的角度,周老师跟袁园老师都是反本质主义者,周濂老师否定共性,袁园老师也否定共性。我今天想唱对台戏,人还是有一点共性的,我先不说。让周濂老师回答袁园老师的问题。

 

@周濂

首先感谢袁园老师。袁园老师的很多说法把我们的讨论深化了,非常有启发。

我回应几点。关于“理性”,我特别认同您的说法,理性不是透明的,不是逻辑意义上的理性,它是具身感知性的,不应该是所有人都共享的理性。麦金泰尔(Macintyre)有一本书《谁之正义?何种合理性?》,从书名传达的意思便是,他反对Universal普遍意义上的、科学主义意义上的概念。我讲“人是有理性的,但是理性不足的动物”,“人和人的交往更多的是一种matters of temperaments,令人绝望的偶然性”。这恰恰是在具身感知的意义上展开的。

启蒙运动以后,有一个非常强的潮流趋势,哲学家想仿造自然科学,以它们为模型去解决人类的道德纷争。霍布斯要建构一个“道德几何学”。这个想法是用一种非具身感知的理性去解决人和人之间令人绝望的偶然性。但这是一个不可能完成的任务。所以我很感谢袁园老师把“理性”的定义给拓展化。这一点我跟您没有矛盾之处。

另外,您最后一张PPT谈到的问题。我想人类是一种设计不够完善、功能不够齐备、容易黑屏死机、常常需要维修的造物。现代科技当然可以改进我们的种种缺陷,可以治疗我们的种种病患,就像福山在《我们的后人类未来》这本书当中说的,我们需要在治疗和改进之间划出一条明显的红线。人是脆弱的、我们有群体性的忧郁,也有更深的个体性的忧郁,我们需要去服用百忧解,这是对不完善性、脆弱性的一种治疗。在治疗的意义上,我完全欢迎并拥抱技术的发展。但如果从治疗进一步推至改进,那就有可能会对那虽然脆弱但是弥足珍贵的人性以及人生造成一种整体性的毁灭。当然,也许实情不是毁灭,而是一种彻底意义上的取代。

回到福柯的一句名言“人有可能像沙滩上的画像一样被抹去了”。今天面临的一个核心问题是人是不是即将死亡?人是不是会消失?在面对生物技术和AI技术发展的威胁之下,这是我们需要认真思考的。至于拥抱未来的虚构的“不存在的人”,在隐喻的意义上,我认同哲学、艺术和科学也许都在虚构“不存在的人”,但是我相信他们虚构的方式和虚构的最终呈现出来的“东西”存在质的差别。
 

@朱锐

谢谢周老师。待会儿请袁园老师回答周老师的问题。

 

技术的延伸

现在话筒交给蔡老师。袁园老师提到人和机器共同作为集体性的行为,像特洛伊木马一样。我记得蔡老师在一次讲坛之中提过“如何把机器个人化”的问题,在我的理解中,蔡老师说的理念跟袁园老师说的人和机器是特洛伊木马是同一个概念。
 

@蔡恒进

谢谢朱老师,两位嘉宾讲的都非常精彩。

技术的确有很多方向,在未来,我们可以把机器当做人类的一个延伸——这也是一个大的方向,我倾向于应该走这个方向。这样,原来很多冲突的地方就能够被消除掉。当然我也反对本质主义,但是我认为“人性”或者“生命性”里有几个最根本的基本特征:(1)有自我肯定需求;(2)人际之间具有可迁移性(transferability)。我们讲的概念是能引起同类共鸣的意识单元,这里我用的词汇是“认知坎陷”,它具有transferability(可迁移性)这一特征;(3)有一个虚构的中心——自我,它通过附着与隧通,保持整体性、独特性,这是人的几个基本特征,也是生命的特征。正是因为自我肯定才让生命在宇宙中呈现出意义,也正因为这一点才得以演化出高级生命(不管这一点是反叛物理规律、反叛宇宙规律的,这可以看作是缺陷)。所以这一点恰恰是要保留的,我同意周老师的观点。

当然,我们的未来有几种:如果沿着本质主义的思路走,沿着强还原主义、强计算主义的思路走,人呈现出的意义是会被泯灭。而恰恰是图灵机范式下,即便是人性面临着被泯灭的危险,却让人类回到纯理性或者是完美状态。这之中所谓的“完美”是什么?实际上什么都没有才是最完美的,无生命的东西才是最天人合一的。这个意义上讲,人或者生命,恰恰是要反抗秩序、试图建立新的秩序的。而这点跟袁园老师讲的是一致的。实际上,虚构未来的确是哲学、科学、艺术在做的同一件事情。而“虚构”就是认知坎陷。

周老师很担心这种建构会是什么样子,会不会存在很多差别。的确如此,它有可能建构有神性的东西(我们肯定是希望朝神性发展),有可能是带有圣人性质的、也可能是上帝性质的、也可能是佛性的。这些是我们要担心的,但这是不是说要过五百年之后才需要担心,现在没有必要担心呢?不是这样的,我比较肯定的是很多事情在三五年之内就会呈现出来,这是会摆在我们面前的问题。我给大家提个醒,人工智能的进步非常之快。虽然大家可以提出很多批评。

当然,这之中有学派之分。绝大多数人参与的是深度学习。其中,foundation  models(基础模型)是一条路线;另外一条路线是更有成效的,是DeepMind的路线,从AlphaGo、AlphaFold到最近的天气预报模型。我们以为天气预报模型会和原来想象的那样,当计算机强大之后会回归还原主义,从第一性原理来计算。但实际上Deep Mind的天气预报模型却不是回到那里。它不基于物理方程,虽然物理方程本身也近似,它是回到数据本身,这个预报比方程预报好一些,计算量明显少很多。

如果我们把人的意识赋予机器,让机器更像人来做预报,更像是老农做预报,而不是原来Digital的预报模型。只不过它现在能记得的特征是远远多于一个老农、一个人类的经验。其中的雷达数据自然超过人的预报能力。这一点恰恰反映了一个事实,我们不用回到第一性原理,从物理基础方程出发做天气预报,这是很重要的进展。

反推回去,在做AlphaFold的时候也不是回到最早的量子方程做预报、预测蛋白质结构,而是用已有的资料和不完整数据来推测,它也不是回到强计算、强还原路径。AlphaGo可能更多的是从底层出发,更像是还原主义,尽管它也不是。所以DeepMind这条路径一项一项地征服,取得人难以望其项背的成就,从AlphaGo、AlphaFold再到天气预报,这是我们已经看到的现实。

Foundation models这边,比如自动驾驶,马斯克他们做的自动驾驶通过大算力、大数据应用到能用的地步,我们也能看到的进步非常之快。模型参数可以一年增长10倍,马上参数数量就能超过人脑神经元之间的连接数,而这只在三四年之内。人脑之间的反应速度毫秒量级,而机器是纳秒量级,差五六个量级是很重大的差异。

我们的确可以做这种选择,虽然让机器变成自我的延伸,机器变成我们的分身,而不是让机器单独发展,变成一个纯粹的工具或者是完全脱离我们掌控的造物,这并没有达成共识。我们的研究有可能做到这一点:通过区块链技术把人和机器连接起来,而不是用Neural link侵入式的方式把大脑跟机器连接起来。语言或者是“认知坎陷”有足够好的效率做可靠的连接,虽然主体之间的理解看起来不够准确,transferability不够绝对,但是有相对的transferability已经足够。比如我们跟小孩子之间的交流不需要把neural link起来,而是通过语言就能够做得到。我们跟机器也可以是这种关系。

回到更早,为什么要理解成人的延伸?生命本身也是这样演化过来的。在我的理解里,“延伸”是基于“我”,基于个体的。这种延伸在原始人那里,他们会觉得采到的果子是他的延伸,因为他不希望别人拿走。假如(原始人)足够强的话,他会希望连果树都是他的,这是一个延伸。一个人有公司,公司可以是他的延伸。我们在用机器的时候也是可以做这种延伸。这里具有的一个很大的挑战——我们的反应速度差很多量级,机器演化速度快得多。

我讲的跟前两位嘉宾没有冲突,很多是一致的。只不过在时间尺度上,我们马上会面临这种问题,而这个挑战非常大,我们可以慢慢讨论。
 

@朱锐

也许有一些观众不太明白您说的认知坎陷。蔡老师,您能简单解释一下吗?也许有一些观众不太明白您说的认知坎陷。蔡老师,您能简单解释一下吗?

 

@蔡恒进

我引进这个概念是为了理解人、生命演化最核心的东西。简单的生命没有个体之间的交互,越是高级生命就会看到越多东西。就如周老师讲后天也很重要,实际上后天/社会性都是通过坎陷来做transferability,做交换。

我最近有一个想法,基因也可以看作是一个坎陷。生命连接在DNA里,遗传信息就是一个坎陷。坎陷是在环境里,当变成新的生命的时候重新表达出来的东西。我们不能简单讲它是nature还是nurture,而是说演化的基因充分考虑了环境的结构、环境的可能性。这是它充分考虑了运行环境而形成的结果,比如写简单的程序放在环境里就会运行出一个结果。它是这样的结果关系,而不是简单的nature或nurture的关系。坎陷是说它自己本身没有生命,但必须在他生长的环境里表现出来才行。用病毒举例会更容易理解。病毒本身不是活的,但一旦侵入细胞里就活了,它就能表达出它自己想表达的东西。它的传染力、感染性就是transferability,指的是它在环境里能不能transfer过去。

认知坎陷更多理解为概念或者是理论模型或者是哲学体系,它们都是认知坎陷。只要是需要进行建构,进而抵达到另外一个认知主体,使之得以理解,那它就是认知坎陷。比如李白、苏东坡的诗,或者是梵高的一幅画,人们一开始可能不能懂,却最终被很多人所接受,这些都可以叫“认知坎陷”。再比如味觉的“甜酸苦辣”,它在物理意义上非常复杂,但通常讲甜酸苦辣,大家都可以get到。又或者是颜色认知,这些所有的意识单元都是认知坎陷。我引进这个概念,是为了涵概所有意识世界的产物。

 

@朱锐

谢谢蔡老师,我帮助观众简单问一下蔡老师,您说的认知坎陷是否代表着一种主体间性的虚构?此外,您说的机器是袁园老师说的“出征”的概念,而人机之间的沟通是周濂老师强调的“人际间的关系”。您说机器更多的不是一个实体,不是一个工具,而是通过在加速的人际交流中出现的一种所谓的状态?那这个状态就是您说的坎陷吗?

 

@蔡恒进

可以这么理解。机器是很特别的,这里正好倒过来。从柏拉图到爱因斯坦和图灵,都是本质主义的、强还原主义的。而现在我们理解的机器,以为它是绝对的,但深度学习的机器或者是DeepMind的机器不是绝对的,因为它们的数据不一样,这和之前已经是不一样的了。

AlphaGo之所以能下棋,这不是自己演化出来的,而是通过工程师、通过编程这些凝聚着人类意识结晶的方法,最终表现出超越科学的下棋技艺。当然,你讲的也很有道理,机器变成人类共同表达的对象也是认知坎陷。

 

@朱锐

谢谢蔡老师。现在有请杨天明老师。

 

延时的抉择

@杨天明

有幸听了几位老师的精彩发言,特别是周老师、袁园老师的讲话。我个人感觉搞人文和搞科学的可能是两种不同的动物,我们的思考方式太不一样了。搞科学的人当中做神经科学的又是最让人讨厌的。为什么这么说?

首先因为神经科学家想研究的东西,往往是很多哲学、人文科学的研究者花很多时间思考的问题,比如人是怎么思考的、人的意识是怎么来的、意识的本质是什么。但神经科学家往往用一种批判的眼光和态度来做研究,(以他们的研究方法)去看待哲学或者是人文科学的思考。其实并不是说我们对哲学有偏见,只不过是因为从很多角度上来说科学的本质就是批判。科学家的日常研究工作就是通过各种证伪推进科学理论。(但这一点)这不完全是我们比较(招人)讨厌的原因。

其次,在我们批判很多东西之后,如果真的要问神经科学家是不是理解大脑、理解意识,或是对人性的问题有确定的发现,我们的答案是没有。(神经科学家)真的没有对大脑有很好、很深入的发现。神经科学还处在相对原始的阶段,尽管我们做了很多研究,特别是对动物的研究。但是,相对于复杂的大脑,我们所了解的真的很少。如果用高标准的批判精神去看,神经科学家基本上对大脑一无所知。所以我认为,神经科学家可能是破坏做得多,从正面取得的建设性成就少一些。

前面这些内容作为一个铺垫,其实我想表达的是,如果我以神经科学家的身份,用完全扎实的科学理论来讲我们对大脑的认识,那么实际上我所能说的真的很少。所以,我接下来会提到的一些我对“人性”、“动物性”的看法,其实很多并不完全基于现有的科学理论和科学知识,只是基于我自己多年以来在大脑的研究过程当中所产生的一些看法和观点。

首先,人是一种动物,但是我们为什么会觉得人和动物是不一样的呢?人和动物之间的不同,显然并不仅仅在于我们的外表,更重要的是在于我们的行为。(相较于动物)人拥有非常复杂的行为。我们面对一件事情、一个场景时,我们做的选择似乎要考虑很多的东西,而不像很多动物,在我们看来它们似乎只是简单地在追求食色这种非常基本的生理需求。那么人和动物之间的差别是不是在于“复杂”和“简单”之间的差别呢?

从演化角度来看大脑和神经系统,人和动物的大脑的功能都是为了在合适的场景下做出合适的反应。差别在于人或者是高等复杂的动物在考虑这些问题的时候,不仅会考虑当下,而且会把过去、现在和未来串联在一起进行思考。比如非常低等的动物,水母,它甚至没有大脑,但是它有一个原始的神经系统。它的神经系统足够帮助它进行一些捕食之类的活动。它们有触手,一旦触手碰到食物,它们会马上做出反应,抓住食物释放毒素等。这种“反应”通常叫做“反射”。它的特点是,当前有什么东西就马上做出反应,而不会做更加复杂的思考、决策。它是对现在状态做出即时反应。更高等级的动物会做一些等待和调节,它可能会知道,并不总是在猎物出现的时候就去抓是最合适的,也许猎物出现之后等待一定的时间再去捕食,可以提高成功率。这就好像有经验的钓鱼者,他们在感受到鱼咬钩后第一时间并不是把鱼竿提起来,而是会找一个更好的时机,知道通过延迟一段时间再做这件事情会更好,这种等待、延时的抉择在神经系统的演化上是高一等的

进一步地,动物可以通过学习来调节它们的反应。通过过去的经验,动物知道对什么样的东西该做出什么样的反应。而学习的本质就是把过去的事情、体验、记忆融合到当前的情景再做出反应。很多动物都有学习的能力,而人类不仅仅能够运用过去的知识,还会考虑到未来。我们不仅会考虑我们的选择在当下会带来什么收益,而且还会考虑我们的选择在未来可能会有什么后果,甚至在很多年之后会带来什么影响。把过去、当下和未来结合在一起做出选择,这种能力很可能是人和动物之间的一个比较大的差别

像各位老师提到的“人性”和“动物性”之间的差别,或者说情感和理性之间的差别,利我、利他之间的张力和冲突等等这一类问题,在我看来基本上都可以在这个框架下进行解释。我们所说的一层一层越来越复杂的抉择和反应的机制,在演化过程当中也是由越来越复杂的大脑和神经系统所完成的。

我们拥有更高级的抉择能力、更高级的抉择机制,并不代表就可以完全取代简单粗暴的抉择,取代反射性的抉择。因为反射这一类简单的抉择能力,在计算上往往是非常快的,所需要的资源比较少,在很多场景反而也是最适用的。比如,我们在看到危险时不应该花太多时间做思考,马上就应该做出反应。更高级的抉择需要更多计算资源、更多的思考、花更多的时间,因此不一定在所有的场景下都适用。所以我们的大脑当中,负责这些高级抉择的神经系统、脑区和环路,并没有替代简单的或者比较原始的抉择能力。二者之间存在一个平衡,高级系统往往是通过对简单抉择系统的调控来发挥作用的。当你面临一件事情时,往往是比较原始的系统先做出判断和决定的反应,(之后)你的高级系统才会介入,花更多的时间去调节相对低级的系统做出的判断是不是正确,是不是需要改变。在人比较疲劳的时候或者是身体状态不好的时候,我们可能会偷懒一点,高级复杂的认知系统就会参与得少一些,往往这个时候我们可能做出来的一些决策在某种意义上相对不那么理性,更多地往直觉感性的方面走。

在这个框架下,也可以考虑一些其他常见的抉择方面的问题。像朱老师提到的“及时享乐”这个问题。如果只关注当前收益,就会采用及时享乐的方式,而这可能对未来的考虑不足。通常在我们看来,这不是最优的选择。但在某种场景下也可以是不错的选择,而这主要取决于我们的未来是不是可以预测。如果我们能够很清楚地预测到未来,预判现在做出的抉择在未来会有怎么样的收益和风险,我们做抉择的时候把未来的因素考虑进去就是一个比较理想的方式。而如果我们生活在变化非常大的、难以预测的世界里,我们很难预测未来发生什么事情,也许及时享乐是比较好的抉择方式。从历史上也可以看到,享乐主义的态度比较流行时往往是乱世,当世界有很多不确定因素的时候,大家会更倾向于做这种选择,这其实是一个比较理性的选择。我先讲到这里,谢谢,可以多讨论。
 

@朱锐

谢谢杨老师。为了大家讨论方便,我想抓一个概念,然后围绕这一概念谈自己的看法。杨老师强调人和动物之间的区别是“等待”。“等待”这一概念非常重要,等待给我们灵活性、给我们选择、给我们考虑未来、给我们计算的可能性,同时某种意义上(至少从我个人的理解),迎合周老师一开始说的人的“脆弱性”。

为什么人会体验到自己的脆弱,能够感受到偶然性?周濂老师所说的伯纳德•威廉姆斯“matters of temperaments”,在等待、理性的考虑中,不确定性被充分表现出来。可不可以从“等待”的角度,也是计算的角度,去理解周濂老师所说的“脆弱”呢?当然这也会在某种意义上陷入自相矛盾。杨老师是传统的将“等待”、“延迟”这种复杂性的调控理解为一种理性的特征,而周老师、袁园老师、蔡老师某种意义上是反对理性主义的理解。后者强调的是从情感上,而不是通过理性的计算来消除不确定性,他们强调要拥抱这种不确定性,利用不确定性去虚构人的未来、虚构人的关系。

我理解得不是很透彻,但是不同的专家讲的有一种cowardice,这种cowardice就是周老师所说的“什么是人的脆弱性,怎样理解脆弱性,怎样对待脆弱性”,我想大家可以从这个角度讨论。
 

@杨天明

关于等待的能力,我再补充几句。显然我说的“等待”并不是为了等待去等待,而是当“等待”是有意义的时候去等待,即,经过学习,我们知道等待一段时间可以得到更好的收益。正如朱老师刚才提到的,一般人的选择是理性的选择,想让自己获得最大收益的选择。当然有一个巨大的问题就是,绝对理性的选择从计算上是不可能的,因为世界非常复杂,要考虑的因素非常非常多。所以在很多情况下,人只能做一个相对理性的选择,这会忽略一些东西,着重考虑另一些东西。而如果忽略的东西恰好在这个场景下是重要的东西,它会让人看起来相对不理性一些。我个人的观点是人从整体上是倾向于用理性做抉择的系统。

 

@袁园

谈到“不确定性”我想用案例来谈艺术家如何思考“不确定性”。

第一个作品是Jenny  Brockmann的装置《害羞的房间》,当观众相对房间有一定距离时,房门是敞开的,一旦观众接近房间,房间的结构就开始收敛。并不存在一个确定的客观世界图景等待我们的观察与发现,每个人的世界图景都在你跟世界的关系里产生。

第二个作品是Jenny  Brockmann《Colour and Light》(色彩和光),展览空间中有若干个不同颜色的容器,每个容器里装有各种来自附近河流中的微生物,这些微生物对不同颜色的“光”敏感,城市的光线会影响微生物的生态环境。这些容器的颜色会跟随着河流里监测数据变化,现实的生态环境就处在不确定性的变化当中。现代生活中的人们很多感官已经弱化了,例如我们现在长期处在特别亮的光线和环境中,以致于我们对黑暗中的事物观察能力以及对弱光的感知能力都退化了。不仅是对光线的感知,还有很多具身感知能力可能随着现代技术的生活发生退化。

Jenny  Brockmann还有一个作品是《知识的本质-不确定的结构》。这是她在2019年跟欧洲结构评估实验室合作的项目,这个实验室是专门研究材料和结构部件的极限抗压测试,这个作品是一个螺旋形装置,它的结构和透明度与地质和大气的实验数据实时关联,使之扭曲、变形。同时,进入这个装置空间中的观众行动也会给这个结构的不确定性增加随机变量。我想通过这个作品来强调,当代艺术家关注的是“不确定性”。因为“不确定性”意味着可能会发生的事件,比如断裂,导致主体性危机的系统性结构可能会松动。

最后分享一个案例,韩国艺术家Jinah Roh 的作品An Evolving Gaia  (2017),引用James Lovelock的盖亚理论。这个作品可以辨识出是赤裸的女性上半身,从胸部向下延伸是红色树状分支、类似心脏血管结构的有机体,这是一个拥有人工智能的互动装置,观众可以和盖亚互动,还可以语音交流。这个作品呈现了演化进程中的盖亚。刚才蔡老师说到机器演化的速度跟人的演化不在一个数量级,甚至相差若干个数量级。而我想说,人/人工智能,有机体/无机体都是演化中的材料,人/机是在融合状态的共同演化,不是一个二分的关系。

 

@周濂

杨老师的发言让我特别受启发,尤其在谈到选择的时候,他说人非常突出的特点是在过去、现在和未来的尺度下做选择。的确是这样,这突出体现了人生存的独特境遇。

杨老师提到朱老师谈“及时享乐”的抉择是有用的,其合理性有赖于对未来能否做出预测。我想起马克吐温的一句话,“让你遇到麻烦的不是未知,而是你确信的事并非如你所想”。这句话意思是,作为有理性的人一定是生活在过去、现在和未来时间的尺度下。而且理性的发展会给你一个幻象,包括AI、未来的科技发展也是这样的,也即,我不仅可以预见未来,甚至可以预定未来。在这个前提下,你做出的选择有可能是一个最佳或者是最优的选择。

但是我一直想要强调的是,对于有限的理性存在者——人来说,这几乎是不可能的。这个不可能不仅在于我们的理性是有限的,还在于我们要处理的信息系统太过复杂。除非拥有上帝之脑才有可能真正预见和预知未来。除此之外,要做到这一点是非常困难的。

另外与此相关的,我想再稍微补充说明一点。刚才一直说“复杂”和“简单”的区分,杨老师也谈到水母的神经系统是简单的、人的神经系统是复杂的,简单和复杂之间是更高级的抉择能力的差异。在概念的层面上,我想做一个补充说明,复杂-简单、高级-低级这种两两相对的概念会引导我们错误地认为,它们彼此之间的关系和差异只是量上的差异,而不是质上的差异;或者说,它们只是同一层面上的差异,而不是不可还原的不同层面意义上的差异。特别需要指出的一个问题,那些比较粗鄙的还原论者,会认为可以把所有的复杂事物都简单地还原成个体。粗鄙的科学还原论主义者最大的问题在于,当他把复杂事物还原成简单元素之后,无法逆向建构复杂的事物

我读一些科普著作的时候,比如说史蒂芬·平克的《当下的启蒙》、爱德华·威尔逊的《知识大融通》,他们都在对粗鄙的还原论提出批评。威尔逊有一个特别漂亮的说法,“喜欢复杂性但不采用还原论,这是艺术,喜欢复杂性同时也采用还原主义,这是科学。”回到蔡老师说的深度学习,更多是在模拟人,一方面有还原主义的构成要素,另一方面也拥抱复杂性——不是在量的意义上跟简单性作对比的复杂性。

 

@蔡恒进

我想补充一点,实际上用理性-非理性来讲的话,很多东西讲不清楚,所以我才用“认知坎陷”。“认知坎陷”本身是可以无穷丰富的,也是在变化的。不能简单说它是理性的、非理性的。回到人性上来说,一般认为人性就是利益最大化的。实际上人性很多时候不是利益最大化,不管从哪个意义上讲都不是利益最大化。很多人发了很多的NatureScience的文章,想证明人是自私自利的,来证明人有利他行为,但我认为在这一点上是不够有说服力。

从自我肯定需求角度讲,则会变得很有说服力。比如像比尔·盖茨的企业家,如果说他是追求利益最大化的、自私的,那他凭什么赚那么多钱?他一百辈子都花不完,为什么他还要赚钱或者去做公益?从利益最大化的角度来说,这是很难理解的。假如从自我肯定需求意义上讲就很容易理解,对他来讲,生命的价值就是要成就这些事情,本身是对自我的肯定就够了,这个理由足够好了。

从这个维度讲,人跟动物的差异:一般会提到来自剑桥大学的Social Brain Hypothesis(社会大脑的假说);以及从人跟动物的差别来讲,直立行走是最重要的。但是在我看来,这些只是后果而不是原因本身。所以我提的是“触觉大脑假说”。人之所以是万物之灵,恰恰因为他的皮肤的敏感性、触觉的敏感性。正好在人刚出生的时候没有触觉的敏感性,脑部神经连接不够完美。比如一头牛生下来,很快就能站起来跟着妈妈走、吃奶;人类的小孩子则很弱,要过几年才能独立、自理,那么这个差异很明显。

由于出生的时候我们的脑子还没有发育完整,要通过跟外界的交互促进大脑发育。所以对内外的感知,和对“我”的感知是不一样的,人类是有更强的“我”的感知。进而才会有更高的智能产生出来。另外还有一个小鸡和乌鸦对比的例子。小鸡孵化出来有绒毛,乌鸦过几个星期才有绒毛。但我们很难用其他原因解释说乌鸦要比小鸡聪明很多。我认为更好的解释在于,它受的刺激不一样,有更强的“我”的感知,这个不是反思性的自我,而是一般理解的高级自我。

所以我就从这一维度理解人和动物的差别,我相信这是能经得起考验的,尽管这还只是假说。那么我认为这几样东西:自我肯定需求、触觉大脑假说、认知坎陷,构成一个闭环,假如我们承认演化论的话,就能把生命的演化、意识的成因、智能的成因讲清楚。

首先,有“我”的意识才可能有别的意识,因为有“我”的意识,才需要智能。假如没有“我”的意识,就不需要智能。一块石头好好的碎了就碎了,那又怎样呢?因为“我”的意识从一开始就是一个虚构,向前追溯可以追到单细胞生物的细胞膜,它是有认知功能的,这个细胞膜能分出内外,就是最重要的虚构。

演化到人这里,就有了很强的自我,在我看来这整个链条是非常清晰的。关键这个虚构是有价值、有意义的、是人赋予宇宙的,不然就是冰冷冷的。所以这个“我”的虚构需要维护、需要继续存在下去。而这一点恰恰是反物理的,因为(“我”的意识)是对抗物理世界的,所以(人)要承受痛苦,要处理矛盾,要去适应外界。但是适应外界的前提是,一开始要独立于外界、反抗外界对他的压力,这才是生命的本质。

也是在这个意义上才需要智能,不然压根儿不需要智能。我觉得我用这个话语和概念体系,试图把(人性这个问题)讲清楚,假如用别的概念体系,听起来当然都是有道理的。讲了两千年,都是坎陷、都是能激起人共鸣的,但并不能给我们一个完整的图像,并不能因此看清楚我们未来跟机器的关系、社会未来的发展,因为有太多的复杂因素混合在里头。

 

Q&A

 
@朱锐
 

感谢各位老师,现在观众提了很多问题,我先选择一个相对比较简单的问题询问各位老师。这个问题是:动物之间也是有尊重的,我们应该怎样理解动物与人的区别?

 

@杨天明

我想作为一个研究动物的人来说几句。关于“尊重”这一类词并不是特别容易运用在动物身上。尊重在很大程度上是一个比较主观的词,我们不能问动物“你发生了什么事情?是不是尊重了对方?”它们没有语言交流的能力。我们要想看动物的想法,唯一的办法就是用某种方式进行测量。比如,我们可以测量它在另一个动物面前,是不是把头低下了、退缩了或者不去打架这一类的问题。但随之而来的另一个问题是,动物即使展现了这个行为,心里也未必尊重。比方说,我在街上看见一个流氓比我强壮很多,我让步了,但不代表我尊重他。

所以在动物研究当中我们会尽量避免这一类词,我们不认为有一个非常客观的、定量的标准可以去衡量它。我们当然可以去猜测,在很多社会性的动物当中是分社会等级的,比如最明显的要属猴子,高等级的猴子对低等级的猴子有相当大的统治能力。低等级的猴子要通过打架才能升到高等级,但是打架本身非常耗费体力的行为,万一打输了可能受伤,甚至会因此降到更低的等级。所以在现实的猴群当中,打架并不是经常发生的事情,低等级的猴子只有确信会打赢,或者有相当大的把握,才可能去挑战更高级的猴子。当你觉得不如高等级的猴子会在各种地方避让它,吃东西的时候会让着它,交配的时候会让着它。也许我们可以把这种行为解释为尊重。但这种避免冲突的行为,对猴子自己也是有利的事情。一旦它们觉得自己更强壮了,就会去挑战高等级猴子的地位。我个人的意见是我们需要比较谨慎地用人类的思考方式去定义动物的这一类行为。
 

@朱锐

杨老师说的我都同意,但观众的问题也有一定的道理。因为尊重在某种意义上,是杨老师所说的别人的存在、言语、行为在多大意义上能够改变我的行为。由于你的存在,使得我本来的行为方向或者倾向在多大程度上发生了改变,这是所有的尊重行为的外在表现。

动物有,人肯定也有。比如我会因为看见摄像头不会超速,某种意义上是我对摄像头的尊重,这可以说是对技术的一种敬畏。一方面您说的完全对。另外一方面,简单来讲,人、机器、动物之间,都有一种由于别人的存在,可以改变我的行为方式的这种意义上的尊重。
 

@杨天明

这种意义上是有的,由于其它个体的存在改变了我的一些行为和抉择,这个意义上说没有问题。大多数社会性的动物的行为都会受到其它个体的影响。
 

@蔡恒进

还是要说一下transferability(可迁移性)在物种内部是否存在的问题。我在思考一个问题,跨物种之间会不会有可迁移性?会不会因为我们老是宠猫宠狗,让猫和狗多少也受到影响,进而导致动物也会表现出有人性、情感性的行为。我猜想这是可能的,这跟上面的问题有一点关系。虽说动物的尊重不一定是从人类这里学的,即便动物也能从人类身上学一点东西,但这都是有可能的。
 

@周濂

我再补充两句,“动物之间也有尊重”这个表述,更像是一个解释,而且是拟人化的解释。而不是价值中立的对事实的客观描述。因为尊重显然是一个规范性的概念,规范性的概念有非常特殊的内涵,我尊重一个人,跟我怕一个人、畏惧一个人、敬畏一个人,在人类语言当中,会呈现出非常不同的理由和根据。

我比较认同杨老师的说法,当然拟人化的解释在动物世界里听起来会觉得特别有意思、引人入胜,杨老师也讲了一个很漂亮的故事。也许对于科学的研究动物行为而言,这种用人类社会特有的规范性概念去描述动物之间的互动,可能是有些仓促的。

 

@蔡恒进

我倒是另外一个看法:当然具体到“尊重”这个词很难界定,不一定能够达成统一的意见。比如“依恋”,动物之间有没有依恋?人之间显然有依恋,在我看来动物有依恋关系,纯粹是拟人化的吗?我觉得不一定,不知道你是怎么想的。有一些东西虽然有风险,但是可以理解。

 

@周濂

我同意蔡老师的部分说法,我们有很多评价性和描述性的语言,其实是一个连续的光谱。在光谱的某一端没准可以更恰当地用到动物的身上,比如说“依恋”这个词,因为依恋除了情感性,还包含生理性的东西。而那些与规范性、道德性相关度更高的概念就不太适用于动物。总之,我不是一概而论,认为但凡是关于人类的描述都不能用到对动物的刻画上,这里需要做非常细致的概念分析。

 

@蔡恒进

听众想问的问题,显然是想说连续性的问题,动物与人之间的连续性问题,他用的词不一定最合适,那我们是怎么看这个连续性的?东方承认连续性没有那么多的困难,但是西方承认连续性是很困难的事情。西方传统上是觉得人是很独特的,是完全区别于动物的。我相信听众想知道这件事。

 

@朱锐

还有一个观众的问题是:如果要变得更完美,个体会不会抛弃已有,转向追求更加完美的变形?我的理解是,如果追求完美,人类会不会变异?也许是周老师说的会导致人类毁灭或者是人性的泯灭。我估计是这个意思。

 

@蔡恒进

我想观众想问的是:人是追求变化的,追求完美的,这是毫无疑问的。那这种完美是什么?大家不一定能达成共识。举一个具体的例子,比如基因修改,它告诉你花10万块钱可以让你的孩子长得更漂亮、更健康、更聪明。你说有多少人会去试?我的答案是,的确大部分会去尝试,这里我指的是普通人,不是哲学家或者是很多有思考的人。可能有所思考的人会犹豫,但一般的普通人一定会去试。假如他感觉会更完美,即使风险很大他也会去试。

 

@袁园

我的理解不太一样,有两点回应:第一点回应是,蔡老师前一轮说到的“我”的概念,肯定是先从“我”的判断出发。我不那么认同,之前讲的“虚构”就是把“我”悬置起来。德勒兹在《什么是哲学》里谈到过这个概念,“我”既不是作为被动的我,也不是主动的我,而是在潜在现实化过程当中创造出来的,只是过程中的“闪现”;或者某种程度上来说,它不是固有的属性,而是一个行动的呈现。行动制造出来事件,在事件当中显现出“我”,而不是固有着某种我的人性/机器性。

第二个,关于观众的问题,引用录像艺术家先驱白南准 “Cybernated Art”(1965)的观点 “we can resist poison only through certain built-in poison, then some specific frustrations, caused by cybernated life, require accordingly cybernated shock and catharsis.”,赛博化生活里所遭遇的挫折只能通过赛博化冲击和宣泄来克服,这是以毒攻毒的策略,技术的倒退是不可能的。把人和机器相互客体化、对象化,根本解决不了焦虑。我更愿意把这种焦虑转移到去思考如何建立新的连接和界面。

蔡老师刚才说的,你以为人工智能的设备是你可见交互界面的那台机器吗?根本不是。之所以它能创造出来,是若干人的智力和技术的融合。我们看见的有形机器、数据,只不过是交互界面而已。而事实上人和机器智能已经深度融合。在今天对于技术产生的焦虑,要尝试建立更深度的连接、更新的界面、更新的关系。

 

@蔡恒进

回应袁园老师第一个问题,我讲的“我”,更多是从演化意义上来讲的最早的内外区分。德勒兹说要悬置起来,本身这个“我”还在,为什么要悬置?实际上“我”一直在,如影随形。包括在佛教里头,为什么要去“我执”?那是因为有“我执”。在演化意义上,“我”的意义是非常大的,它是起点,并不意味着一直要坚持不变的“我”。而这个“我”本身可以向外延伸,可以变成大我。

 

@朱锐

观众提到“完美性”的问题,刚才周老师、杨老师也都提到这一问题。我个人认为,不管“完美性”怎样定义,从完美性的角度完善自身,这本身是一个误区。我们不应该把机器当作一个问题的解决。为什么这样说?因为我最害怕是马斯克这些工科的、强有力的、很有资源的人,他们真的可以实现未来。他们这些不加分析地对机器的认知、对技术的理解,真的可以预测出来、实现出来。

我更愿意看到的,也许是前面周老师、袁园老师所说的,“被动地”对未来保持开放性,不要消除不确定性,不要把技术或者机器当作一种问题的解决。在我看来这种解决本身是已有问题的延续,真正的技术和真正的创造力,也许是蔡老师所说的transferability。真正的技术应该是打破性的,应该是现有问题的终结,而不是解决,让现在的问题不再是问题。

比如自动驾驶,是嵌在城市化道路的拥挤、人类的工作方式、居住方式的延溯。马斯克可以用他自己的资源和暴力式的方式,不断地延续现在人类悲惨的状态。而真正的技术应该是完全改变人类的界面,完全改变人类的居住方式、工作方式,以至于让自动或非自动的驾驶成为不必要的问题。

人类的一个误区是,总是把机器当作是服务人的,而不是改变人的。我们不把机器当作是一个能够完全重新虚构人类自身的可能性的东西,而是把机器当作一个实实在在的工具。通过完善机器的方式来完善我们现在所理解的完美性,这恰恰是一个最大的误区。也是我最害怕的,就是所谓的未来学家、所谓的掌握权利和资源的未来学家,把我们引入的“未来”。我更愿意等待一种不可知的、脆弱的向未来展开的方式。

 

@蔡恒进

OK,我很同意。

 

@袁园

朱老师抛出一个特别重要的命题,我们怎么应对这一点?在现在通常的观念里,我举一个例子,中国是全球性爱机器人的主要生产国家。由这个问题抛出来的有两种思考:一种是朱老师说到的及时享乐的问题,毫无疑问买一个机器人可以随时获得这种享乐,这个机器是完全按照个人需求定制的物。但带来的问题是人的欲望也完全被机器主宰,一旦离开机器,连欲望生产的能力都没有了。就如同我们现在离开手机、断开网络就变得极为焦虑。在我们与机器的依赖关系中,制造了一个连欲望生产能力都没有的主体。因此我们必须要去思考,在这样的关系里如何创造异质性的主体?不是在均质的时空关系里的能被大规模生产、规训的同质化主体,而是在微观层面有着充分异质性的主体。
 

@朱锐

我们轮流来总结一下,结束今天晚上的讨论。
 

@杨天明

今天我学习到了很多,我个人的观点会比较机械化一点。从一些实验的角度,从可操作的实验的角度来看问题,显然我们可以做的实验是有限的,但是思考的问题是非常深刻的。在这一点上,我感觉是科学需要向哲学借鉴,更深入地思考在现阶段很难通过实验去解决的一些问题。未来这样的讨论应该可以更多一些,更加深入一些,这样对双方都会有好处。

 

@蔡恒进

我今天也学到很多。特别是怎么表述清楚自己的观点。我想提醒听众的是,AI进步实在太快了,即使是专家都不能全面地理解。这一点是希望大家都警醒的。

 

@袁园

我们今天根本无法想象未来人、机器、技术会以什么样的方式在我们眼前展开。我想还是要尽可能地回到具身感知,关注生命的、情感的强度。这是我们还能做到的部分。

 

@周濂

谢谢四位老师的分享,受益匪浅,这种跨学科的交流应该是多多益善的。我最后想说几句话。只要科技没有被终结,历史就不会被终结,未来不是由我们来决定的。所以拥抱偶然性、接受偶然性,无论它是令人欣喜的,还是叫人绝望的。

 

@朱锐

感谢各位嘉宾的精彩分享,由于时间关系,今天线上讲座就到这。同时感谢观看直播的观众朋友们。


 

主持人:朱锐 | 嘉宾:周濂、蔡恒进、杨天明、袁园

主办:中国人民大学哲学与认知科学跨学科交叉平台、服务器艺术 |  协办:神经现实

整理:腰总、兵书、光影 | 排版:光影