本文为基于邱泽奇教授访谈的文字整理
1. AI的使用,是否带来降智?本不是非黑即白。其实这种问法本身,有点像工业时代蠢的问题。
2. 我们对人类思维的认知还处在非常早期阶段。如,人的思维带有跳跃性,甚至带有相变性。人在某个时刻会突然想到一件事情,脑子里面也经常会出现一些奇奇怪怪的想法,目前都还很难解释。
3. 从认知来看,现有的AI不论有多强,它吸收的基本还都是人类的知识。更像是人阅读图书的知识。但,阅读图书只是人视觉感知的一部分,我们还会看图,看电影、看歌剧、看话剧。更关键的是,人还会看其他人的脸色,目前机器还做不到。
4. 人工智能学习的是世界的海量语料。然而,我们或许永远无法判断这些语料构成的背景和价值观会有怎样的、对人类而言的问题。
5. AI有一个天然的缺陷是:会讨好人。这需要我们去挑战它,让它在不同视角的观点中迭代,最终收敛出一个对人类而言相对靠谱的回答。同时,还要使用不同品牌的模型比较,去选择性使用。因为每个模型的特点也有不小的差异。
6. 从人的成长过程来看,陪伴是非常重要的。陪伴,对人认知的影响是一个潜移默化的过程。以此类推,私域的AI,包括AI社交陪伴应用、AI玩具、AI宠物等,可能会是一个很大的市场。
7. 人的一生,短短3万天而已。如何过好这一生?每个人的回答都不一样。比如老大爷夏天蹲在树荫下抽一袋烟,他的这种幸福可能是很多人无法想象的。所谓的智能鸿沟,有可能是我们错误地把自己放在高位去观察外界。在这个意义上,要允许多样性,鼓励社会的多样性。
我们可以把AI当成一个会说话的百科全书
当前,我们与人工智能对话,更像是在看书。在传统的东方,读书解决的主要是伦理问题。从十三经到三字经,人们学习的是跟其他人相处的基本观念和能力。在中世纪以后的西方,读书解决的主要是对事物的认知问题。这便有了两种读书的目的性。
从认知来看,现有的AI,不论有多强,它吸收的还都是人类的知识。打个比方,AI可以几秒或几十秒读完一本书,总结其中大意,也可以讲出来很多理论和道理。但是,还有一类知识,比如期刊论文,如果没有被授权给大模型训练或阅读,大模型就没法知道其中蕴含的知识。期刊的量非常大,仅2016-2018年,Nature等世界上约1万种科学期刊就发表了超过30万篇自然科学论文。在一定程度上,AI的价值,在于减少了高级知识分子群体和普通大众的知识差异,但AI仍然难以覆盖人类知识的整体。
从原理上讲,AI到底会对认知带来何种影响?现在下结论还为时尚早。辛顿在上海人工智能大会上表示,人类的思维模式可能是大语言模型。人是从牙牙学语开始,去不断积累的。人工智能也在这么做。不过,这个说法的问题在于忽视人类学习的其他途径,忽略了人类的五官。阅读只是视觉感知的一部分,且是视觉感知中的一小部分。除了读书,人类还会看图,看电影、看歌剧、看话剧。更关键的,一个具体的人还会看其他人的脸色,而目前机器还做不到。其次,人的思维带有跳跃性,甚至带有相变性。人在某个时刻会突然想到一件事情,或者脑子里面经常会出现一些奇奇怪怪的想法。对这些现象,目前的脑科学还没有给出令人满意的解释。人类对人类思维的模式认知还没有完全入门,或还处在非常早期的阶段。比如,从弗洛伊德开始的心理学到现在,我们没有一个心理学流派是被普遍认可,且已有的认可也经不起时间检验。
目前人工智能的两条路径,其实都还在摸索阶段。下一个可能有效的路径或许是符号主义的。如果符号主义的产品会能够补足人类的能力不足,它可能会真正创造另外一个世界。Alpha Zero 是符号主义的经典产品。但是, Alpha Zero 之后就没有一个更强的新产品出来。目前的无人机、机器人,机器狗等,也沿袭了符号主义的思路。这些都是在变量有限且环境限定场景下的产品,通过强化学习训练等方式,的确具有很好的应用性。然而,放到更大的环境里面或改变环境就行不通了。这是它的弱点,泛化性还不强。
AI降智,这个问题本身就有问题
具体到AI是否带来降智?不是一个非黑即白的事情。这种问法本身,有点像工业时代的蠢问题。首先,一个具有主动性的人,会带着过去的知识积累,对AI输出的每一条内容都会打问号,去质疑和检验,与降智没有关系。对AI输出的质疑和挑战过程,反而是一种很积极的互动和思维锻炼,促进我们扩展思维的广度和深度。换句话说,一切事情只取决于人的态度本身。在这个意义上,人工智能帮助人类跳过了一些枯燥和耗时的工作。在科学研究中,如果AI提示我们有一份重要文献,而恰好之前我们没有接触过,这便是AI的益处,或给我们带来很大启发。与AI交互,不是简单地让AI去做文献综述,而是要相互探讨,我称之为人机互生,即人类与机器可以相互成就。
举另外一个例子,IQ测量,在某种意义上,可以把它理解为一种商业模式,甚至是一种“骗局”。经济学家经过长期研究发现,无论是日常生活中的成功,还是事业上的成功,EQ的贡献会更大一点。根据IQ测量值来评估人的能力、制定相关策略,可能更适合工业时代。到AI时代,可能就完全不适用。更重要的是,人类智慧原本没有固定模式。如果有一个固定模式,那是机器,不是人。
科学革命源自于中世纪的黑暗时代,黑暗时代最大的认知特征是让你不要怀疑,要信仰上帝。科学革命带来的变革是树立质疑精神,要去验证。质疑,对神学提出了一个根本挑战。科学革命建构的思维模式,至少到今天为止,还是要让人类受益的。其核心是,如果你不挑战、不去验证,就没有办法让自己相信。人际交往的信任来源于人们长时间的互动,去了解对方更多的背景、行为模式和认知底线等,从而减少对对方的怀疑。但是,人工智能学习的是海量语料,我们无法判断和琢磨,构成它的背景知识和价值观会有怎样的问题。
与AI交互,还要区分知识和价值。我们对AI的价值观一定要时刻保持警惕。对于AI做的事实性归纳包括对规律性的总结等,只要数据靠谱,还是可以相信的。
基础能力的培养在AI时代更为重要
基础能力包括语言能力、逻辑能力和认知能力等。人类教育的发展经历过若干阶段。传统教育第一是信仰教育,告诉我们信什么;第二是知识教育,现在的学校教育的大部分工作都是在传授知识传授;第三是认知教育。认知教育其实更重要。我们每个人可能都记不起大学和中学时代学了什么课程知识。可是,这些学习,却变成了我们今天看待和处理事物的能力,这就是认知改变的后果。
从人的成长过程来看,陪伴是非常重要的。陪伴,对人认知的影响是一个潜移默化的过程。陪伴者,一定要是可信的人。现在很多小学生中学生大学生都用AI写作业,孩子们也会拥有更多的AI玩具,这对AI提出了更高要求。我相信,未来私域AI可能会是一个很大的市场。
在北京大学,我们鼓励学生用AI,包括知识性问题和探索性问题,都可以通过与AI讨论获得更深的思考和更好的认知提升。作为教师,我们要做的,是引导学生去讨论,课堂讲知识性的东西反而要变少,要加入更多认知提升的内容。
当然,AI有一个天然缺陷,它容易顺着提问者来说,会讨好人。这时候,需要我们去挑战它,它慢慢地就会运用不同角度的观点进行迭代,收敛出一个相对靠谱的输出。我们还可以用不同品牌的模型来反复提问,相互比较后有选择地使用,其实每个模型的特点也有不小的差异。
所谓的智能鸿沟,有可能是我们错误地把自己放在高位去看外界
早期的数字鸿沟,是接入和未接入互联网人群之间的信息差。接入互联网之后,有的人用来刷视频、有的人去做研究发论文,对数智技术的不同运用还是有很大差异的。人工智能的到来,一方面确实是带来了知识、甚至智能的平权,另外一方面,我们看到,现在用AI和不用AI的差距可能会拉得更大,用好用的AI和不太好用的AI,也会产生很大的差别。
人对环境的体验是很奇妙的。假设我们到山区体验生活。去之前,我们想象山区生活非常困苦,可要是在那里住上一个月,也会慢慢适应,获得新的感受和认知。数字鸿沟,是从社会总体入手的观察,还是高位视角的观察。其实,一天只有24个小时,每个人的一生也就短短3万天。我们怎么用好生命的时间资源,过好这一生?每个人的回答都会不一样。比如,老大爷,夏天蹲在树荫下抽一袋烟,他的幸福感受或许是我们想象和体会不到的。在这个意义上,要允许多样性,鼓励社会的多样性。