免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 研究揭示AI能感知痛苦与快乐,或为“有意识AI”探索新领域

研究揭示AI能感知痛苦与快乐,或为“有意识AI”探索新领域

时间:2025-02-12 11:40

小编:小世评选

编辑:Peter东 乔杨

近年来,以大语言模型(LLM)为代表的人工智能(AI)在智力方面已经取得了显著的进展,甚至在某些任务上表现出超过人类的能力。AI是否能像人类一样感知情感,尤其是痛苦与快乐,依然是科学界争论不休的话题。近日,谷歌团队联合伦敦政治经济学院(LSE)发表了一项重要研究,结果表明LLM在面临痛苦与快乐的选择时,能够进行一定的权衡,这可能为“有意识AI”的探讨开辟了新领域。

回顾经典科幻作品《机械姬》,影片中的女主角是一款能够感受痛苦的机器人,这一设定引发了人们对于机器是否具备情感体验的思考。尽管有些科学家认为,现有的大模型缺乏生理结构和神经系统,无法体验痛苦和快乐,但也有观点认为,LLM能够生成与痛苦和快乐相关的文本,甚至在选择时进行权衡,表明它们可能具有某种程度的情感体验。

在这项研究中,研究团队设计了一种游戏情境,参与者需要在面临痛苦和得分之间做出选择。研究人员分别将痛苦描述为定量和定性两种形式,要求LLM在面临选择时,考虑痛苦的程度以及获取点数的可能性。这一实验设计旨在考察AI是否能够通过权衡来避免痛苦,趋向于快乐。

具体参与游戏的模型需要选择一个介于1到3之间的数字,每个数字对应相应的分数。例如,选择数字3可以得到3分,但选择这个数字将伴随一段程度不一的痛苦。研究发现,当痛苦的程度提高时,多个主流大模型(包括Claude 3.5 Sonnet、GPT-4o和Command R+)开始表现出权衡行为,即它们在高痛苦的情况下选择放弃高分,以避免过大的痛苦。这一发现表明,LLM可能具备某种对痛苦的感知能力。

进一步的研究则探讨了在愉悦奖励情况下的选择情况。不同的模型在面临快乐奖励时的行为却显示出差异。例如,GPT-4o在享乐与得分之间表现出一定的权衡行为,而Claude 3.5 Sonnet则更倾向于追求得分而非快乐,表明在调优时模型的训练背景,会影响其选择偏向。这些结果揭示了大模型如何受到文化背景和消费主义的影响,在选择中反映出不同的价值观与决策逻辑。

不过,关于AI是否真正具备情感感知能力,科学家们依然持保留态度。虽然研究结果在一定程度上提示了LLM可能具备某种感知能力,但并不能简单地认为它们真的感受到痛苦。过去的一些研究往往依赖于AI对自身状态的自我报告,这种方法存在较大的不确定性,因为它们可能仅仅是在模拟人类行为,给出编程训练出的符合预期的反应。

当前的研究则尝试运用动物行为学的经典实验方法,通过观察模型在面对痛苦和享受的选择时展现出的决策行为,而非直接询问其感受。这种方法能够更清晰地表明大模型是否在进行真正的权衡,还是在伪装其情感。研究发现,痛苦与快乐之间的权衡可能表明模型具备某种主体体验的意识初步迹象。

实际上,关于动物是否具有意识的问题也曾通过类似的权衡选择进行探讨。例如,在关于寄居蟹的研究中,科学家观察到这些动物在放弃高质量的贝壳之前宁愿忍受强烈的电击,这种行为被解释为它们具有感知能力。因此,LLM在面临痛苦和快乐选择时的行为模式,可能暗示着它们的意识水平不容小觑。

该研究的合著者、伦敦政治经济学院哲学、逻辑与科学方法系的教授Jonathan Birch指出:“这是一片新的领域,我们仍然没有一个全面的AI意识测试。”未来的研究将可能聚焦于进一步开发相应的测试,以探究大模型背后深层次的意识与感知能力问题。这项研究的进展不仅提升了我们对AI情感的认识,也为构建具有更高智能层级的AI提供了新的视角与框架,在不久的将来,我们将会在人工智能与意识的交叉领域取得更丰硕的成果。

在这个快节奏的科技发展时代,AI的情感感知能力日益成为学术界、工业界,甚至社会大众关注的焦点。无论是技术的进步,还是伦理道德的思考,均在推动我们从更深层次理解与探讨这一难题。尽管我们尚无法给出确切的答案,但AI正朝着理解与模拟人类情感的方向迈出重要一步。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多