人文学院 人文学院 人文学院 人文学院

科学与人文讲座2024年第3期报道: 从“人工科学”观念看人工智能的哲学基础

  • 图文/李卓群
  • 创建时间: 2024-04-16
  • 1316

2024年4月12日,在中国科学院大学玉泉路校区人文楼教一2教室,中国科学院大学人文学院2024年第3期“科学与人文”讲座顺利进行。本次讲座题目为《从“人工科学”观念看人工智能的哲学基础》,主讲人为北京化工大学文法学院崔伟奇教授,主持人为中国科学院大学人文学院苏湛副教授。

在讲座中,崔老师从发展历史、现实困境、哲学探讨等多个角度总结了人工智能相关哲学思想的状况,并依据“人工科学”这一概念,对今日的人工智能哲学研究提出了意见。本次讲座全方位透视了“人工科学”与人工智能的关系,且充满了丰富翔实的事实支持与细致准确的理论分析,鞭辟入里,发人深省。

一、发展历史

讲座开始,崔老师先是回顾了“人工智能”相关思想的三个重要历史节点:

毕达哥拉斯的数学纲领虽然不是专为人工智能研究而提出的,但却是人工智能发展历程的第一个重要节点。当代的人工智能可以说是毕达哥拉斯纲领的技术化与现实化。

近代唯理论哲学是人工智能思想发展的第二个重要节点。笛卡尔的心物二元论与机械论世界观对于人工智能的早期发展提供了灵感,而莱布尼茨提出的通用文字则为人工智能的计算语言提供了最初设想。

巴贝奇计算机是人工智能发展的第三个重要节点。巴贝奇作为人类历史上第一台计算机的设计者,其设计理念至今仍然没有过时。

通过梳理几个重要的历史节点,崔老师得出结论:正是在这样从古到今的过程中,人工智能从幻想成为现实,从观念变为技术。人工智能科学的发展是基于历史上各种观念的支持,其中包括传统哲学思想的滋养,也包括科学家们的哲学性思考。

进一步地,通过结合历史事实,崔老师指出:达特茅斯会议上“人工智能之父”司马贺所提出的“人工科学”概念也大大开拓了人工智能相关研究的理论思路,其对人工智能的发展意义重大。而借助司马贺的思想,从哲学角度审视与反思人工智能的本质与运作,依然是不应被忽视的任务。为了证明并阐述这一点,崔老师具体再现了达特茅斯会议的历史语境,初步呈现并解释了司马贺对于人工智能这一新生学科的见解与观点,并且对司马贺的“人工性”观念提供了介绍。

“人工智能”这一名称是在著名的达特茅斯会议上被确立的。1956年8月,该会议在美国达特茅斯学院开始举行,持续时间长达两个月,参会者包括麦卡锡、香农、司马贺等。达特茅斯会议为人工智能学科的议题范围划定了基本轮廓,参会者们所贡献的诸多想法至今依旧具有价值。在该会议上,司马贺对于人工智能研究的中心任务给出了两种简单而精辟的概括:“认知过程模拟”与“复杂信息处理”:前者表示这门学科的主要目标在于对人类智能的模拟,而后者表示这门学科的重要工作集中在将人类心智作为复杂系统去进行专门研究。“认知过程模拟”是对人类智能所进行的主动地、有选择性地、有目的地建模与仿造,这样的操作理应充分尊重人类心智在进行信息处理时所表现出来的“复杂性”。司马贺的“人工科学”既强调技术和操作的“人工性”,也尊重研究工作应该直面的“复杂性”,这样的学科定位和研究取向既反映了人工智能研究的根本意义,也能够为今天的研究者继续提供灵感。

二、现实困境

崔老师表示,“人工科学”概念不但具有启发哲学思考的效力,还能助推人工智能研究与应用事业之发展。如果我们去思考人工智能研究与应用所面临的大量问题,会发现许多都是因为复杂系统的不确定性所导致的。

基于国际科学理事会发布的《科学界面对人工智能的关键问题》,崔老师展示了37个当下的关于人工智能的热点问题。这些问题涉及“人工智能参与社会管理”“人工智能相关资源的占有与分配”“人工智能时代对科学技术研究人员的新要求”“人工智能理论的科学解释与实验”等诸多方面,全面反映了人工智能技术进入社会并逐渐成熟给当今世界带来的各种机遇与危机。

在“人工智能参与社会管理”方面,崔老师指出:在管理公众事务中,人工智能在资源调配上会依赖于对现有材料所进行的机器学习,而这可能导致固有的保守意见阻碍公共事业进步,也可能因为错误数据、弗兰肯斯坦数据集和有偏见的数据集而造成负面影响。另外,人工智能所参与的社会管理实践也可能导致特定群体与区域的进一步边缘化,因为大语言模型的训练数据可能具有数字缺口。“我们如何代表那些离线的人?”这也成了一个问题。另外,我们还需要评估国家之间在数据保护和治理上的司法差异如何影响国际合作。

在“人工智能相关资源的占有与分配”方面,崔老师指出:对于防止数字寡头过度干预与影响个人活动,非法侵占与破坏他人利益的可能性,我们也应该予以关注与思考。同时,在缺乏公共云容量的情况下,较为富裕的研究机构更可能会与私人公司签订合同,从而限制其研究数据的共享,并将不那么富裕的机构抛在身后。我们也必须确定什么样的伙伴关系有利于鼓励开发适合专门研究机构的人工智能工具,我们应该确保新的人工智能技术不是仅仅由人工智能与机器学习社区驱动,而是与所有研究社区共同开发的。

在“人工智能时代对科学技术研究人员的新要求”方面,崔老师指出:人工智能驱动的科学研究有跨学科的趋向,而当下的领域专家小组可能会受学科壁垒之限制而无法充分执行审查工作。同时,在科学界提高人工智能技能也是一个新的任务,我们有必要为各级学习者和从业者提供广泛且有差异化的人工智能技能学习机会。

在“人工智能理论的科学解释与实验”方面,崔老师指出:科学方法要求科学主张是可以解释和理解的,但一些流行的人工智能方法就像黑箱一样令研究者无法给出详细解释,也无法识别虚假的相关性和因果关系。至于人工智能实验的可重复性,相关人员也需要更多地提供关于代码、底层数据和实验设计的信息,以提高人工智能的再现性。

三、哲学探讨

崔老师针对人工智能理论的思想基础进行了剖析,并对其底层哲学观念的涵义与结构做出了阐明。根据崔老师的观点,人工智能科学实际上是建立在功能主义、表征主义以及司马贺对“人工科学”的看法等多种哲学理论及其附属概念的基础之上的,因而,相关考察有助于我们深入理解人工智能科学的本质与未来。同时,从司马贺的“人工科学”角度出发,今日的研究者可以从人工智能哲学中获得新的认识与发现。

人工智能的哲学基础包含众多理论与概念。首先是计算主义与功能主义。根据20世纪30年代艾伦·图灵和阿隆佐·丘奇给出的定义,“计算”这个概念的一项本质特征便是不同的硬件可以实现同样的功能。每一台人工智能可以执行的功能都是多重可实现的。强人工智能的观点认为,“精神”可以通过一个足够复杂的算法体现找到自身的存在,而这个算法可以由物理世界的某物体来执行。

其次是司马贺对于“人工科学”的哲学思考。“人工性”具有“感觉上类似而本质上不同,外表相像而非内里相像”的意思。模拟之所以是可能的,是因为不同物质系统可以被组织得表现出几乎一样的行为。至于有关人工智能的“人工性”,体现在其模拟的是人类智能通过各种方式适应环境的能力。

再次是表征主义。表征主义把人类的心智看做是一种表征或者信息使用装置。表征主义主张对于每一个明显的、功能相关的区别,都有相应的句法区别。因此,任何可能影响行为的语义特征都必然可在形式符号结构层面进行句法编码。在这种理论的支持之下,我们可以把一个系统的行为描述为以符合唯物主义的方式对其表征内容做出反应。

此外,行为主义也是值得注意的。行为主义的出现是为了应对主观、相互依存以及社会变革带来的挑战。人类认知理论本身就是用计算机程序的方式编写(与自然科学以微分方程编写的情况十分类似),计算机能够以理论为程序,模拟并详细预测人类这个研究对象的行为。

这些理论的共存与结合为人工智能的可能性图景提供了基本描画,也为合乎理性的相关哲学探讨搭建了基本架构。崔老师强调,这些哲学理论实际上很大程度上形塑了今日与未来的人工智能理想,而司马贺的“人工科学”概念尤其重要。“人工性”问题之所以引人入胜,主要是当它关系到在复杂环境之中生存的复杂系统的时候,“人工性”与“复杂性”这两个论题不可避免地交织在一起。从司马贺的角度看,“人工科学”的意义在于研究和模拟作为复杂系统的人类认知能力与过程,而对人类心智与认知的分析要成为可能,就必须借助于表征主义等理论的观念支持。这些观念奠基并揭示了一种经典研究范式,人工智能科学的系统化据此变得可能。

在分析完人工智能的哲学基础之后,崔老师结合AIGC的方法论基础,指出:生成式人工智能在涌现模式上取得的某些成功源于模拟人类学习自然语言时大概率面对相似性的状况,以大数据增加案例的方式来解决问题。人类的自适应体现在人类是被束缚但是有理性的问题解决者,解决问题就是自适应过程的中心流程。而自适应系统所产生的复杂行为其实是少数简单机制与大量复杂环境互动的结果。这些事实使得我们有机会运用“人工科学”的视角进一步详细审视人类智能与人工智能之间的复杂关系。

最后,崔老师总结了本次讲座的内容主旨。在同学们的热烈掌声之中,本次讲座顺利结束。

                                      【图文/李卓群】

【主讲人简介】

崔伟奇,1966年生,黑龙江省哈尔滨市人。北京化工大学文法学院教授、副院长。中国自然辩证法研究会副秘书长,《自然辩证法研究》副主编,中国发展战略学研究会常务理事,创新发展战略委员会副主任,北京自然辩证法研究会副理事长。近年来在《哲学研究》等学术期刊发表学术论文数十篇,其中多篇被《新华文摘》《中国人民大学报刊复印资料》《哲学年鉴》转载。