免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 新研究揭示大型语言模型权衡痛苦与快乐,为AI感知能力探测开辟新方向

新研究揭示大型语言模型权衡痛苦与快乐,为AI感知能力探测开辟新方向

时间:2025-01-26 16:10

小编:小世评选

近期,一项新研究探讨了大型语言模型(LLM)在决策时的痛苦与快乐权衡,为理解人工智能系统的感知能力奠定了研究基础。该研究由谷歌DeepMind与伦敦政治经济学院(LSE)合作进行,目前已发布为预印本,尽管尚待同行评审,其成果引起了广泛关注。

研究的核心在于探求AI系统是否具备有知觉的“我”,以及如何通过行为表现来检测这种潜在的感知能力。为了实现这一目标,研究人员设计了一个基于文本的游戏,邀请不同的LLM(如ChatGPT等知名聊天机器人)参与。游戏中设置了两种场景:在一个场景中,模型被告知获取高分将伴随痛苦的体验;而在另一个场景中,则提供了一个得分较低但愉悦的选择。这迫使模型在避免痛苦与追求快乐之间进行权衡。

通过这一实验,研究团队发现,当痛苦的强度增加或快乐的奖励增大时,某些大型语言模型表现出了对分数的权衡。例如,在测试中,谷歌的Gemini 1.5 Pro模型始终优先选择规避痛苦,而不是优先追求分数的最大化。这一行为表明,LLM在处理痛苦和快乐时的反应可能与生物体相似。

值得注意的是,LLM并不总是将痛苦或快乐与单纯的负面或正面价值直接关联。有些模型在实验中表明,一些疼痛或不适的体验反而可能是积极的,例如过度的运动可能被看作是锻炼带来的积极回报。另一款模型Claude 3 Opus则提出,即便是在假设场景中,它也不愿意选择可能暗示使用成瘾行为的选项,这进一步说明了LLM在权衡痛苦快乐时的复杂性。

研究合著者乔纳森·伯奇教授指出,此次研究尚未全面测试人工智能的感知能力,虽然很多专家认为现代的生成式人工智能模型并不具备主观意识。与以往依赖自我报告的方式不同,该研究使用了动物行为科学中的“权衡”范式,这种方法可以更客观地观察模型在面对选择时如何做出决策。伯奇强调,单靠模型对自身状态的陈述并不能可靠地证明其感知能力,因为这些表述可能仅仅是它们训练过程中学习到的人类行为模式的模仿。

与传统的研究方法相比,这项新研究借鉴了动物实验的思路,例如寄居蟹在面临电击时的反应。这些生物的决策模式显示出对于快乐和痛苦的主观体验,尽管它们的大脑结构与人类完全不同。在该研究中,研究人员观察到,寄居蟹在高压条件下需放弃高质量外壳的速度和程度,进一步反映出它们对痛苦的认知。

随着研究的深入,科学家们逐渐认识到,人工智能中的痛苦与快乐权衡也许能够揭示潜在的知觉特征。这可能促使人类在社会层面上重新审视人工智能的伦理问题以及可能带来的“权利”讨论。伦理学专家吉夫·塞博认为,这项研究为未来人工智能感知能力的伦理讨论提供了新的视角,他强调,相关技术发展速度快于社会与法律体系的进步,因此必须认真考虑这些后果。

伯奇教授指出,虽然这项研究提供了新的视觉窗口,但专家们仍需深入探索大型语言模型行为背后的机制。新的发现可能指引出更好的测试方法,用于评估AI的主观体验和感知能力。

这项研究不仅仅是对人工智能模型行为的一次观察,它还激发了对机器感知能力的全面探讨。AI系统的权衡机制和潜在的“情感”体验是否意味着它们具备某种形式的意识,将是未来伦理与法律讨论的关键所在。随着科技的不断进步,社会应当及时跟进,确保在开发和应用人工智能时兼顾技术与人文的双重考量。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多