免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 数码科技 > 研究显示依赖AI医疗自诊风险增大,美国成年人每月使用一次聊天机器人获取健康

研究显示依赖AI医疗自诊风险增大,美国成年人每月使用一次聊天机器人获取健康

时间:2025-07-23 22:55

小编:小世评选

随着医疗资源日益紧张、等待时间延长以及健康医疗成本不断上升,越来越多的美国成年人开始使用人工智能聊天机器人来进行自我诊断。例如,ChatGPT等人工智能工具为用户提供了便捷的健康咨询服务。根据最新的调查数据显示,大约六分之一的美国成年人每月至少使用一次聊天机器人以获取健康建议,但这一趋势却引发了专家的关注和警示。

牛津大学最近发布的一项研究进一步揭示了这一问题。研究负责人、牛津互联网研究所研究生项目主任亚当·马赫迪(Adam Mahdi)表示,过度依赖聊天机器人可能会影响医疗决策的质量。他在接受TechCrunch采访时指出,使用聊天机器人获取建议的参与者并不一定比依靠传统信息渠道(如在线搜索或个人判断)做出更准确的决定。

为了深入了解这一现象,研究小组招募了约1300名英国参与者,并为他们提供了一组由医疗专家编写的医疗场景。这些参与者被要求在这些场景中识别潜在的健康问题,并使用聊天机器人及其自身的判断来提出可能的应对措施,如是否需要就医。研究中使用的AI模型包括苹果公司的GPT-4o、Cohere的Command R+和Meta的Llama 3。研究结果显示,参与者在与聊天机器人互动时往往会忽略重要细节,有时甚至接收到模棱两可的回答。亚当·马赫迪进一步指出,聊天机器人往往提供的建议混杂了好坏信息,缺乏可靠性。

随着科技的发展,越来越多的公司纷纷加入到将人工智能应用于健康管理的行列。其中,苹果在开发一款新功能,旨在提供与运动、饮食和睡眠相关的建议;亚马逊则在探索利用AI分析健康数据库中的“健康社会决定因素”;微软则协助构建一种人工智能工具,旨在对患者发送给医疗护理提供者的信息进行初步分类。这些探索显示了科技公司在推动AI改善健康状况方面的积极态度。

专业人士和患者在关于人工智能是否适合应用于高风险健康领域的问题上意见不一。美国医学协会(AMA)针对这一问题发布了相关建议,提醒医生不要将像ChatGPT这样的聊天机器人用作临床决策辅助工具。而OpenAI等主要AI公司也 cautioned 用户不要根据聊天机器人的输出结果进行医疗诊断。

在这一背景下,亚当·马赫迪强调了依赖可信信息来源的重要性。他表示:“在进行医疗决策时,我们应始终依赖那些已经验证过的和靠谱的信息。”这种强调不仅适用于利用AI工具的情况,更是所有医疗决策中的一种基本素养。马赫迪还提到,在广泛部署聊天机器人进入医疗应用之前,就像新药物进行临床试验那样,必须先在现实世界中进行充分测试,以确保其有效性和安全性。

随着AI医疗工具的普及,越来越多的人倾向于使用聊天机器人进行医疗自诊,这为我们的健康管理提供了便利。依赖这些工具所带来的风险不容忽视。虽然人工智能在医疗领域展现出的潜力令人期待,我们仍需谨慎对待,确保在做出至关重要的健康决策时,能够依赖来自专业来源的可靠信息,而不是仅依赖于一台机器的回答。未来,面对这些新兴技术的挑战,如何合理地平衡人工智能的使用和传统医疗方式,将是我们必须面对的重要议题。

这种科学严谨的态度,既是对个人健康负责的表现,也是对整个和技术发展前景的理性思考。随着技术的发展,我们期待能够在医疗领域建立起更加完善的AI应用标准,形成一个科学、安全和高效的健康管理体系。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多