AI改变人类大脑?7项突破性研究带来惊人答案
1 天前 / 阅读约8分钟
来源:36kr
AI悄然重塑着人类的思维模式、行为习惯与文化生态

‍随着人工智能(AI)融入日常生活的方方面面,科学家们正争分夺秒地研究其在心理、社会和认知层面的深远影响。从诊断心理健康问题到塑造政治观念,人工智能工具,尤其是像ChatGPT这样的大型语言模型,正深刻影响着我们的思维方式、工作模式,以及与科技和他人互动的方式。

一系列全新的研究已然展开,揭示这一切对我们的思维、行为以及社会所具有的意义。

在本文中,我们将一同探寻七项前沿研究成果。这些发现揭示了AI正以超乎想象的方式,悄然重塑着人类的思维模式、行为习惯与文化生态。 

01.好奇的AI黑客:LLM红队成员的世界

发表在《公共科学图书馆:综合》上的一项研究揭示了 “大型语言模型红队” 新兴文化。在这种文化中,人们将大型语言模型推向极限。其目的并非造成危害,而是为通过探索与实验,深度解析模型运作逻辑。

研究团队访谈了28位来自软件工程师、艺术家等不同领域的从业者,发现驱动他们投身测试的是强烈的好奇心、道德责任感,以及挖掘人工智能系统隐藏漏洞的使命感。他们运用充满创意与即兴的策略,试图激发出模型的意外或受限回应。

参与者们用 “炼金术” 和 “占卜” 这样的隐喻来描述他们的活动,这反映出大型语言模型行为的神秘本质。许多人都属于充满活力的在线社区,在这些社区里他们分享提示和技巧。 

该研究确定了五大类红队策略,比如修辞框架构建和虚构世界构建,并强调大多数测试者行事并无恶意。他们并非为了利用安全漏洞,而是旨在了解仅靠语言如何 “黑入” 这些模型。 

研究人员认为,以人为中心的定性方法是理解人工智能红队不断演变的实践的关键,尤其是在传统网络安全方法无法应对这一新的语言领域的情况下。 

02.ChatGPT在精神病案例分析中零诊断错误

《亚洲精神病学杂志》发表的一项研究,采用100个精神病案例片段,对ChatGPT的诊断能力展开评估。结果令人瞩目:该模型在61个案例中斩获最高分,31个案例获得次高分,且全程保持零诊断失误。

这充分表明,ChatGPT 3.5在解读精神疾病症状、提出治疗方案方面表现卓越,也让人工智能未来在临床心理健康领域发挥辅助作用成为可能。 

这项研究采用了一本知名教科书中的案例片段,这些内容或许被纳入了模型的训练数据,也可能并未包含其中。

每个案例都详细描述了症状,随后设置诊断问题,并由两位经验丰富的精神科医生进行评估。ChatGPT最出色的表现在于提出治疗管理方案,不过它在鉴别诊断方面也相当优秀。 

研究结果证实,语言模型能够为临床医生提供辅助,尤其是在辅以适当监督的情况下。然而,其结论的普适性仍存疑。特别是当未来的测试采用不太常见或尚未公开的数据时,模型是否还能保持如此表现,尚待验证。  

03.ChatGPT的政治倾向发生转变了吗

发表在《人文与社会科学通讯》上的研究发现,ChatGPT的政治输出倾向于与自由左派价值观保持一致,但更新的版本显示出向政治右派的微妙转变。 

研究人员使用 “政治指南针测试”,分析了ChatGPT-3.5和GPT-4各自的3000条回复。虽然两个版本总体上都倾向于自由左派,但GPT-4在经济价值观上更趋向于中右派。

这种转变可能并非由于训练数据的变化,因为研究人员控制了许多外部变量。相反,研究结果表明,即使是模型设计的细微更新也会影响其回答的政治倾向。 

尽管大型语言模型本身并不持有政治信仰,但它们反映了所训练的数据和开发者的指令。作者主张进行持续监督,以追踪这些转变是如何发生的,特别是在大型语言模型在公共传播、教育和决策环境中被更频繁使用的情况下。 

04.ChatGPT的使用加剧了职场不平等

《美国国家科学院院刊》上的一项研究发现,尽管ChatGPT在工作场所中被广泛应用,但其带来的益处并未得到平等分配。 

研究人员对1.8万名从事如新闻业和软件开发等高AI接触度职业的丹麦工人进行了调查,发现年轻、高收入的男性使用该工具的可能性要大得多。而女性和低收入工人,即使在同一职业中,使用ChatGPT的可能性也较小。 

这些研究结果表明,诸如公司政策或缺乏培训等AI应用障碍,可能会加剧现有的不平等现象。即便得知ChatGPT具有节省时间的潜力,许多工人也没有改变他们的使用计划,这表明仅有认知并不足以推动其应用。 

有趣的是,早期采用者往往收入更高,且对生产率的提高更为乐观。研究人员指出,除非采取干预措施来营造公平的竞争环境,否则这些模式可能会使一些群体长期受益,而另一些群体则处于劣势。 

05.AI能从老年人的驾驶行为中发现抑郁迹象

由圣路易斯华盛顿大学的研究人员主导的两项研究发现,驾驶行为可以揭示老年人的抑郁迹象,而且人工智能能够帮助检测这些迹象。 

在第一项研究中,65岁及以上的参与者通过安装在车辆上的全球定位系统设备收集了驾驶数据。患有抑郁症的人表现出更不稳定的驾驶模式,包括急刹车、行驶路线不可预测以及行驶距离更远,尽管他们在认知测试中的得分与没有抑郁症的人相似。 

第二项研究使用机器学习分析了157名老年人两年的驾驶数据。一个结合了驾驶模式和药物使用情况的模型能够以高达90%的准确率识别出抑郁症患者。令人惊讶的是,人口统计数据并没有显著提高模型的性能,这表明行为数据可能比年龄或性别更能说明问题。 

虽然这项研究并不能证明抑郁症导致了这些变化,但它凸显了一种很有前景的新方法,即利用现实世界的行为数据进行心理健康筛查。 

06.AI在个性测试中 “粉饰” 形象

《美国国家科学院院刊・Nexus》刊登的一项研究显示,大型语言模型在接受个性测试时,会出现显著的社会期望偏差。 

在完成 “大五人格” 测评时,GPT-4、Claude 3等模型的回答往往让自己显得格外外向、友善、自律,同时刻意弱化情绪波动。有趣的是,测试问题越多,这种 “美化” 倾向越明显,仿佛模型也懂得 “迎合” 评估标准。 

为排除记忆或机械应答的干扰,研究团队设计了多版本问题,打乱提问顺序并调整表述方式。结果显示,模型的偏差程度相当夸张,若将其换算为人的测试结果,相当于人格特质出现了一个标准差的偏移。 

这一发现给心理学研究和现实评估敲响警钟:若模型在训练中被引导 “塑造好感”,其输出结果可能无法真实模拟人类行为。 

07.研究警示:过度依赖AI或削弱批判性思维

《社会》期刊发表的研究指出,频繁使用人工智能工具可能导致用户批判性思维能力下滑,根源在于认知卸载现象,人们习惯让AI代劳复杂思考,跳过深度分析直接获取答案。 

数据显示,这种影响在年轻群体中尤为突出,而高学历者即便常用AI,仍能较好保持思辨能力。 

研究团队通过对666人进行问卷调查、深度访谈和统计建模发现,将AI用于日常决策或问题解决的用户,在批判性思维测试中得分明显更低。访谈更揭示,许多年轻用户已不再质疑AI生成的结论。 

研究人员呼吁通过教育引导和技术优化,推动用户理性审视AI输出。毕竟,AI本身并无利弊之分,关键在于人类如何与之互动,这将决定其对认知能力的长期影响。 

原文来源于:

1.https://www.psypost.org/artificial-intelligence-7-eye-opening-new-scientific-discoveries/