心智感知:接触AI如何改变我们对“有心”机器的看法
核心观点
- 心智感知是人类将思考、意图或感受等心智能力赋予其他实体的心理倾向。
- 研究表明,接触大型语言模型(如ChatGPT)后,人们倾向于认为它们更具心智。
- 理解心智感知的心理学,可能成为负责任地设计和管理AI技术的关键部分。
心智感知:当AI开始显得“有心”
当人们初次接触ChatGPT、Claude等AI聊天机器人时,通常将其视为工具——或许很复杂,但终究只是软件。然而,在与之互动后,许多人开始产生一种微妙的变化:聊天机器人开始感觉不那么像机器,而更像一个拥有心智的存在。
这种反应反映了心智感知这一心理过程。人类天生会对他人和动物进行心智感知,但我们也会将其延伸至机器人、计算机,甚至公司或自然等抽象概念。
近期研究通过四项实验发现,即使短暂接触大型语言模型,也会增加人们认为这些系统具备心智特质的感知。
心智感知的两个维度
心理学家通常从两个主要维度描述心智感知:
能动性:指思考、计划和行动的能力。
- 人们更容易赋予机器能动性(如计算、制定策略)。
感受性:指感受情绪或感觉(如愉悦、痛苦、恐惧)的能力。
- 人们通常难以承认机器拥有感受性。
大型语言模型模糊了这一界限,因为它们能以流畅的对话语言进行交流,能够解释想法、生成故事、回答问题并以早期软件无法做到的方式模拟共情。因此,它们特别容易引发拟人化倾向——即赋予非人类系统以人类特质的倾向。
接触AI后的心智感知变化
研究中,参与者评估了他们认为AI聊天机器人拥有多少能动性和感受性。部分参与者观看了聊天机器人回复的简短示例,另一部分则与系统进行了实时互动。
- 一致的发现:接触聊天机器人后,人们倾向于赋予其更多心智。即使是模型能力的简短演示,也足以增加对其能动性(有时包括感受性)的感知。看到系统生成深思熟虑或富有创造性的回复,会使其显得更“有心智”。
- 关键差异:接触的类型很重要。阅读聊天机器人的回复示例,有时比直接与之互动更能增加心智感知。
为何互动本身并不足够?
一个令人惊讶的发现是,阅读示例有时比直接互动更能提升心智感知。原因可能在于人们的互动方式:
- 直接互动时,许多人会提出直接的事实性问题(类似使用搜索引擎)。这种“功利导向”的互动凸显了系统检索或组织信息的能力,但可能无法展示其更具创造性或社交表达性的能力。
- 精心设计的示例则可以展示更广泛的能力,包括幽默、创造力或不同寻常的推理。
换言之,接触本身并不决定人们对AI的看法,互动的性质也起着重要作用。
个体差异的影响
研究还发现,并非所有人都以相同的方式感知AI:
- 先前接触:过去接触聊天机器人更多的人,总体上倾向于赋予其更多心智。
- 拟人化倾向:本身就更倾向于将非人类事物拟人化的个体,更可能将心智能力赋予AI系统。
这些发现表明,随着AI更深入地融入日常生活,人们对这些系统的看法可能会随时间改变。熟悉感可能使它们在某些情境下显得不那么像工具,而更像社会行动者。
研究的意义与启示
这项研究的更广泛意义在于:人们对AI的感知并非固定不变,而是随着经验演变的。
随着人们更频繁地在不同情境下与聊天机器人互动,他们关于这些系统是什么以及能做什么的直觉可能会持续变化。因此,理解心智感知的心理学,可能成为负责任地设计和监管AI技术的关键环节。