新闻网讯(通讯员 刘念瑜)11月26日晚,韩国延世大学安德伍德国际学院的Nikolaj Jang Lee Linding Pedersen教授走入第2583期人文讲座,以“人工智能认识论”为主题为全校师生带来一场精彩的演讲交流。

从2016年alphago战胜人类围棋手到现在教学过程中chatgpt的广泛应用,Pedersen引入AI认知与“AI谬误”。AI的推论怎样才能与知识等同?它在高效输出结论同时,伴随的谬误究竟是基于怎样的原理?
为使大家进一步理解这些问题,Pedersen为在场师生展示了数组产生AI谬误的图片示例:“熊猫+低像素=长臂猿”“哈士奇+雪地背景=狼”。在听众好奇的眼神中,教授总结出五个AI模型常见的谬误产生原理:虚假相关性、极度敏感性、非稳定特征识别性、过度拟合依赖、偶然噪点影响。AI大模型比起人类更少地拥有“输入输出一一对应”的逻辑,而且AI对于非鲁棒性的内容判断力有限。因而,AI结论往往具有偶然性,且其容变性不足,这也是在大多数提供的资源不具有鲁棒性时,AI结论与真实知识相距甚远的原因。
谈到AI认知不能成为知识的同时,Pedersen也简洁明了地给出逻辑和哲学上对于“知识”这一名词的定义。知识的模态条件包括安全性、敏感性以及遵循性。在自然界中,“知识”表现为“客观事实”;而在类似的“法律界”等领域,“知识”表现为“法条”等“认知稳定”“认知敏感”且“认知可保持”的呈现形式。Goldman在1976年提出的“假谷仓县”案例正是这一定义的例证。Pedersen回顾了五个典型AI谬误的产生原因,认为这些谬误正是AI思维在判断中缺乏知识的必要模态条件而必然产生的结果。

Pedersen总结了演讲的核心思想和尚未提及的内容,希望大家可以通过考察环境与条件模态知识,理解目前定义的知识和基于AI的知识的显著差异,同时进一步探究AI系统的认知缺陷和改进方法。现场的听众们踊跃发言,就AI相关内容提出自己的疑问,从AI数据准确性的回归曲线到AI对人类未来的影响和走向,综合各个学科的认知与教授进行深入探讨。
讲座在师生的热烈交流中结束,师生们对于从哲学和认知的视角重新了解AI表现出极大热情。智能技术与哲学认知的交融,赋予了本次讲座特殊的魅力。