800余科技领袖签署倡议:暂停超级智能AI发展,呼吁确保安全性
时间:2025-10-30 11:00
小编:星品数码网
2023年10月22日,未来生命研究所(Future of Life Institute,简称FLI)发布了一份引发广泛关注的声明,超过800名科技领袖、科学家及公众人物联合呼吁,建议在“超级智能”的人工智能技术经过科学界的严谨评估,并获得公众的普遍认可前,暂停该技术的进一步发展。这项倡议强调了科技发展与人类安全之间的紧密联系,尤其是在人工智能日益强大的背景下。

签署这份倡议的科技领袖中,包括被誉为“AI教父”的杰弗里·辛顿和科技巨头苹果公司的联合创始人史蒂夫·沃兹尼亚克、维珍集团的创始人理查德·布兰森等,这一名单不仅囊括了硅谷的领军人物,还遍及其他领域的专家和领导者。更为引人注意的是,还有前美国国家安全顾问苏珊·赖斯和前参谋长联席会议主席迈克·马伦等关心国家科技安全的知名人士,他们的参与显示出对科技进步可能导致的风险的深切担忧。
截至2023年10月23日中午,参与签署的人数已经突破3000人,显示出科学界与社会各界对于AI发展的高度关注。在中国,一些知名学者如姚期智、清华大学公共管理学院院长薛澜、清华大学智能产业研究院院长张亚勤以及人工智能伦理与治理专家曾毅反应出对这一倡议的支持,并再次强调了中国长期以来倡导的“安全、可靠、可控”和“以人为本”的人工智能发展理念。
签署者们以严谨的态度警告,“超级智能”的潜在影响令人不安,强调这一技术如果完全超越人类的控制,将可能对经济、个人自由及国家安全造成深远的负面后果。他们认为,一旦AI的目标与人类的利益背道而驰,可能引发不可逆转的社会危机,甚至对人类的生存构成威胁。
实际上,对人工智能的严肃反思并非首次。在2023年,公众对AI的担忧已经引起了业内的广泛关注。包括埃隆·马斯克和史蒂夫·沃兹尼亚克在内的千余名人工智能专家曾集体签署一封公开信,提议暂停研发更强大的AI技术至少六个月。这种呼声同样源于对AI潜在影响的警觉,甚至在更早之前,著名物理学家霍金也曾发表公开信,指出人工智能的威胁程度可能超过核武器。
曾毅在个人社交上也直言不讳地表示,由于目前缺乏坚实的科学证据及切实可行的方法来确保超级智能体的安全,“我们正面临着灾难性的风险”。他明确指出,所谓超级智能,是指在所有核心认知任务上超越人类的人工智能形式。他对“AI是中立的”这一观点持有强烈质疑,认为构建AI的方法将决定其发展方向,其结果可能是既能够赋予人类巨大帮助,也能造成巨大的威胁。
同样,图灵奖得主、深度学习三巨头之一的约书亚·本吉奥也在呼吁中强调,迈向安全的超级智能需要公众的深入参与和对话,只有在更广泛的公共讨论和理解的基础上,才能确保这一技术朝着有益于人类的方向发展。
更为重要的是,未来生命研究所的专项调查显示,目前公众对人工智能的监管期待极高,仅有5%的受访者支持无监管的AI开发现状,绝大多数人呼吁更为严格的监管机制。这一结果反映了人们对AI技术潜在风险的深刻认识,以及期望在技术发展与人类生活之间建立更合理的平衡。
在国际层面,AI风险治理的问题日益成为各国关注的焦点。美国与欧盟在“AI法案”的推进上存在显著差异:美国更注重市场自律与行业标准,而欧盟则强调透明度与可追溯性。此次倡议有望推动有关多边协商的技术伦理议题的重新讨论,使AI治理从以自律为主的阶段过渡到更具合作性的治理模式。
随着科技日新月异,人工智能在各个领域的渗透已不容忽视。建议暂停超级智能AI的发展,体现了科技界对保障人类安全、促进可持续科技发展的高度负责态度。未来的科技探索仍需以人为本,将安全置于首位,以实现人类与智能体的和谐共生。

