2023年4月7日下午1点30分,中国科学院大学人文学院2023年第四期“科学与人文”讲座在玉泉路校区教学楼阶一3教室举行。中国人民大学哲学与认知科学交叉平台首席专家刘晓力教授应邀担任本次主讲,题目为“AIGC:一场人机交互大实验正在进行时”,特邀北京理工大学科技与社会研究所薛少华副教授作为此次讲座的点评人,中国科学院大学人文学院历史系苏湛副教授主持了本次讲座。
刘老师的讲座主要分为三个部分:1. ChatGPT的底层逻辑是对注意力转换的概率预测;2.此“生成”与彼“生成”之沟壑能否填平;3.Chat-X能否打通AGI的最后一公里。以下依次进行介绍。
Part 1. ChatGPT的底层逻辑是对注意力转换的概率预测
首先,刘老师详细地讲解了ChatGPT发展历程中的三个重要阶段:从2019年微软与OpenAI的合作,到2022年底OpenAI推出ChatGPT预览产品,再到之后的逐代升级,并解释了ChatGPT大资本、大算力、大训练、大模型、大耗能的诸多特性。
GPT的英文全称是Generative Pre-trained Transformer,意思是生成式-预训练-转换器模型。预训练是指让AI接受大量文本语料的强化学习训练,其目的是让它依照人类意愿理解语言的基本模式和关系;生成式意味着AI可以在知识基础上有能力“创造出”新的想法;最后的Transformer意味着转换模型方法。人类理解语言时,注意力最重要的功能是大脑的联觉调动,聚精会神加权评估词语间的意义关联性,而ChatGPT是通过把下一个语句中的两个符号或字符串之间的相关度用数值表示,预测下一个词出现的概率,从而计算出一段文本。
Part 2. 此“生成”与彼“生成”之沟壑能否填平?
GPT-4是人工智能内容生成语言模型中的一例,它仅靠语言交流就可以生成新的对话,但绝不可能生成具有自主性的心智(mind),因为人类的心智是在漫长的生物演化中形成的。刘老师指出,AIGC“生成”与人类“生成”之间的区别主要在于机器之芯是用大算力产生言语行为、代码图像视频;而生命之心演化生成自我意识和世界的意义。GPT的生成是Generative Transformer;人类生成认知为Enactive Cognition。再者,人类语言的意义是高度具身性(embodiment)的,而AIGC是非具身地产生内容。具身性要求具有与生物相似的感知和运动控制能力,包括视觉、听觉、触觉、平衡等,这些就是GPT生成和人类生成之间的沟壑,而是否能填平还需要着重考虑机器的伦理问题。
Part 3. Chat-X能否打通AGI的最后一公里?
AGI全称为Artificia General Intelligence通用人工智能。微软研究员们在发表GPT-4的文章摘要中提到 “Given the breadth and depth of GPT-4' s capabilities, we believe that it could reasonably be viewed as an early (yet still incomplete) version of an artificial general intelligence (AGI) system.”【译:鉴于GPT-4能力的广度和深度,我们认为可以将其视为人工通用智能(AGI)系统的早期(但仍不完整)版本。】刘老师指出,AGI的智能体初步具备了人类的思考和推理能力,但知识的广度和深度却可能远超人类。总而言之,就像人工智能教父杰弗里·辛顿(Geoffrey Hinton)说的,我们研究AI,目的不应该是让AI更像我们,而是为了更好地理解我们自身。
在提问交流阶段,四五位同学和刘老师、薛老师、苏老师进行了热烈的交流与讨论。最后,讲座在同学们的鼓掌声中圆满结束。
【图文/戴佳妮】
【主讲人简介】
刘晓力,北京大学哲学博士,中国人民大学哲学院教授。从事数学哲学与科学哲学,心灵哲学与认知科学研究。曾任中国逻辑学会副会长,中国自然辩证法研究会科学哲学专业委员会主任,数学哲学专业委员会主任。出版《哥德尔思想研究》(2000),《认知科学对当代