研究显示AI比人类更擅长操纵观点,或成社会操控新工具
时间:2025-06-07 17:45
小编:小世评选
编辑:Peter 东 英智
在这个信息爆炸的时代,我们作为人类往往自认为能够独立思考和主导自己的观点。历史一再提醒我们,个人的思想和观点往往受到他人影响的潜在脆弱性。通过金钱、规则乃至国家力量,社会性生物的我们常常会受到可大规模改变我们观念的人或事物的操控。在这背后,AI技术的迅速发展,使得这些观点操控变得更加复杂和深远。
近日,瑞士理工学院进行了一项颇具争议的实验,探讨了AI在说服方面的能力。该研究并未得到所有参与者的知情同意,且结果引发了社会对AI操控的深刻反思。实验指出,基于大型语言模型(例如OpenAI的GPT-4),AI在网络辩论中比人类更能有效地改变对话者的观点,引发了专家们的广泛关注与担忧。
这一研究将900名参与者随机分配到不同的辩论组中,每组在特定主题(如“学生是否应该穿校服”、“是否应禁用化石燃料”)上与人类或AI进行辩论。参与者还被分类为被赋予或未被赋予个人信息。结果显示,在获取了个人信息的情况下,与GPT-4进行辩论的参与者有81.7%的概率表示认同对手观点。即使在未获取个人信息的情况下,GPT-4的效果也依然优于人类,尽管程度有所减弱。
这些研究结果突显出一个关键问题:AI不仅可以根据获取的个人信息量身定制辩论内容,而且在说服对方方面表现得更为高效。这种现象的背后,不仅是大模型在逻辑推理方面的优势,还包括对于情感认知的侧面作用。当参与者面对AI时,他们可能在心理上更容易接受观点改变,这是因为AI的非人类特质让他们在潜意识中对于胜负的界限更加模糊。
与此形成鲜明对比的是,人类辩论者倾向于更随意的表达,使用第一人称与第二人称代词,生成的文本更长且更易读。他们常常依赖讲故事的方式、幽默感以及对相似性的诉求来赢得辩论。这表明,两者在说服策略上的重要差异。AI所生成的语句则更倾向于使用逻辑分析,表现出更强的客观性,但鲜少能够引发情感上的共鸣。
此项研究引发了一个愈发迫切的思考:当我们进入一个大型语言模型越来越普及的时代时,我们如何应对潜在的操控风险呢?此次实验所证实的AI在观点操控的优势让人不禁联想到社会中的各种操控案例。例如,Cam
idge Analytica事件虽然没有使用AI技术,但却能够有效操控舆论;而随着大模型与社交网络的结合,社交上定向推送的广告信息更是给人们的思考自由带来了前所未有的挑战。
更为复杂的是,未来AI可以结合声音和面部表情的识别技术,增强影响力。这种跨领域的整合将使得AI不仅仅是一个信息传递的工具,它在操控人心、塑造舆论方面的能力将达到一个前所未有的高度。
面对这一现实,我们需要认真思考如何监管AI的使用,尤其是在观点操控方面。正如人们对待定向广告和社交媒体信息传播一样,现在是时候重新审视大模型的应用,确保它们不会成为思想操控的工具。科技的未来不仅仅依赖于创新,更需要对其潜在社会影响的深刻理解与谨慎应对。
教育领域同样需要对此进行关注。在未来的教室里,如何合理规范大模型的应用,以保证它能够促进而非损害学生的独立思考和人格成长,将是教育者必须面对的重要挑战。AI的普及可能意味着我们的孩子将面临更复杂的认知调整环境,学校和家庭的角色在这一过程中愈发重要。
尽管大模型在操控观点上的能力令人震惊,但我们仍有能力和责任去引导这项技术的使用。社会需要制定相应的规则和标准,以确保AI的运用能够更好地服务于人类发展,而不是成为思想操控的工具。这是对我们未来的责任,也是对即将到来的科技时代的深刻反思。