牛津与剑桥联合发布报告:人工智能安全应作为全球公共产品进行治理
时间:2025-05-19 12:15
小编:小世评选
2025年4月,牛津大学中国政策实验室联合剑桥大学,及多家国际机构共同发布了一份引人关注的政策研究报告,题为《将人工智能安全视为全球公共产品:影响、挑战与研究优先项》。该报告深入探讨了人工智能安全治理的全球公共属性,倡导将其纳入“全球公共产品”(GPG)的框架,旨在借鉴气候变化、核安全与全球公共卫生领域的经验,推动协调责任分配与公平发展。
随着人工智能技术的迅猛发展,我们既看到了其带来的革命性机遇,同时也面临着前所未有的安全挑战。当前,国际对话正逐渐转向以公共产品为视角,探索人工智能的安全治理。这个框架揭示了安全研究投入不足与协作障碍之间的矛盾。具体而言,各方之间存在搭便车动机,导致安全相关的研究与基础设施投资未能满足日益增长的需求,难以有效应对系统性风险、算法偏见及潜在的技术故障。
全球公共产品框架的重要性
全球公共产品的概念与传统公共产品有所不同,其效益不仅普惠全球,而且不因个体的使用而减少。因此,在人工智能安全的领域,市场机制的有效性受限,安全投入和基础设施的不足难以得到合理分配。应用GPG框架不仅能够突出单边或以市场为导向的治理措施的局限性,还能帮助规避市场失灵问题。
报告借鉴了气候变化与公共卫生治理的经验,强调了有能力的国家应该承担起提供全球公共产品的责任,并且需协调各国的共同行动,以避免因缺乏合作而加剧国际间的竞争,降低整体安全水平。
界定人工智能领域的公共产品
该报告还强调,在人工智能领域,公共产品的定义应当与诸如“清洁空气”与“传染病防控”这样的基本需求类比。这些领域需要保障的资源可及性(如计算能力、数据共享)和需规避的系统性风险(如技术失控或滥用)同样适用于人工智能。通过细化这些特征,报告详尽梳理了相关政策工具,提供了清晰的行动框架。
不同国际倡议提出将人工智能相关议题视为公共产品的实践案例,如《国际人工智能安全对话·威尼斯声明》和《曼哈顿宣言:包容性全球科学理解》等,均强调安全协议与科学知识共享的公共价值。
将全球公共产品框架应用于人工智能安全
尽管算力、资金与人才等资源通常具有排他性,但安全领域的知识却往往可以共享。报告提出,人工智能安全应通过多级治理体系,结合地区、国家和全球层次进行有效协调。
如历史上的核能、航空等领域,通常从地方或国家层面起步,逐步扩展为国际制度。这同样适用于人工智能安全治理,初期需要解决的许多问题仍集中在本地层面,通过建立本地标准与安全监控能力,为后续国际标准的建设打下基础。
面临的挑战与解决策略
将人工智能安全纳入全球公共产品框架,虽然有助于推动国际协调,但也面临诸多挑战。当前的政治阻力、执行难度、国家利益的固有差异,都使得全球合作面临困境。各国因技术实力与战略考量,对于人工智能安全的合作意愿不足,易陷入“囚徒困境”,且往往对超国家治理机制持保留态度。
报告指出,发达国家在核心技术方面的优势与发展中国家对安全规范的担忧也加剧了这一问题。因此,人工智能安全治理必须并行于本地、区域与全球层次,构建可扩展的责任与激励机制,加强对能力建设与透明度的关注。同时,需明确区分可独立共享的安全工具与依赖高级能力的研究,为不同主体提供合理的动力结构。
研究议程的构建
为了应对当今人工智能安全面临的复杂问题,报告提出了七大研究方向,包括:
1. 识别高级人工智能全球风险,制定共同行动计划;
2. 确定人工智能对人类基本自由的具体威胁;
3. 界定有效的最低安全标准,促进跨文化的合作;
4. 分析安全手段的共有价值与非排他性;
5. 研究如何调和先进国家与发展中国家的利益与责任;
6. 构建防止“安全漂洗”的量化标准;
7. 探讨资源分配机制与技术突破之间的关系。
,报告指出,人工智能安全作为全球治理的核心议题,亟需通过跨学科的视角及多方合作,构建出既包容又有效的安全框架。只有将人工智能安全视为全球共担的公共产品,才能在创新与风险之间找到平衡,为未来面临的全球性挑战提供可借鉴的治理模式。