陕西警方破获AI换脸诈骗案 警示法律监管滞后风险
时间:2025-06-20 17:35
小编:小世评选
在2024年2月,陕西警方成功破获了一起利用AI换脸技术实施的诈骗案件,犯罪分子通过仅仅十几分钟的录音和几张照片,就伪造出逼真的“领导”视频,轻松突破了传统的安全防线,案件涉案金额高达186万元。这一事件再一次引发了社会对人工智能技术在安全领域应用的担忧与警示。
据数据显示,2024年全球发生的AI相关风险事件中,超过30%与深度伪造技术有关。黑龙江大学计算机与大数据学院院长王磊曾表示,利用简单的音频和图像资料,普通人即可生成换脸视频,更令人担忧的是,这种技术门槛的降低可能使得更多不法分子有机可乘。在这种背景下,公众对人工智能与法律之间的关系,以及如何进行有效监管产生了深思。
随着人工智能技术的飞速发展,传统的法律法规多显得滞后。法律的稳定性与技术的快速迭代之间存在着明显的“时间差”。以2023年ChatGPT引发的版权争议为例,现有法律的预见性不足,令人对未来的法律适用产生担忧。南通大学法学院副院长王晓燕指出,尽管中国已逐步出台了一系列有关算法备案和伦理审查的指导意见,但面对如此迅猛的技术发展,前瞻性立法变得尤为迫切。
AI技术的跨国属性也给监管带来了复杂性。面对一个在中国开发的AI被境外人员用于生成虚假信息的情况,适用何国法律将成为棘手问题。外企研发的自动驾驶汽车在中国发生交通事故时,责任的归属又该如何判定?这都反映出当前全球在数据安全与法律领域的合作与协调尚显不足。乐高玩具(上海)有限公司事务负责人杨晴红认为,促进跨境数据流动的同时,细化跨境数据管理的规则,推动国际司法协作,是当前立法亟待解决的问题。
随着科技的发展,AI伦理审查也逐渐成为常态,但伦理与法律之间的衔接问题依然难以解决。科技部等部门于2023年发布的《科技伦理审查办法(试行)》对涉及舆论导向的算法的研发进行伦理审查,但如何将这些伦理要求转化为切实可行的法律条款还需进一步探索。“公平”“透明”等抽象伦理要求需要被具体化为明确的标准,而这对于立法者来说是一项挑战。
同时,在安全与发展之间的平衡也是一大难点。清华大学教授申卫星强调,人工智能立法必须关注安全和发展的双重目标,过度监管将可能抑制技术创新。北京理工大学研究员张心宇提出,在给予AI应用适当容错空间的同时,完善相关风险分担机制,将有助于降低企业的合规成本,促进人工智能的健康持续发展。
对于未来的人工智能立法,多位专家提出了建议。当前有关人工智能健康发展的法律条款多散见于网络安全法、数据安全法等法规中,因此,有专家建议应当考虑制定专门的人工智能促进法。该法应该明确AI发展的基本原则、监管框架与促进措施,将安全和发展统筹安排。
中国科学院院士房建成等专家认为,面对AI技术的不断创新,既懂技术又懂法律的专业人才尤其稀缺。因此,呼吁在法学教育中加入人工智能的相关知识,加大交叉学科的人才培养力度,将是实现人工智能发展与法治营造的重要途径。
在具体的监管实践中,部分专家提到“沙盒监管”的模式。沙盒监管是一种创新监管模式,旨在通过在特定范围内实施包容审慎的监管措施,解决传统监管“一管就死、一放就乱”的困境。当前,我国已在多个自贸区开展数据跨境流动监管的试点,未来可借鉴此模式,在雄安新区、深圳等地针对前沿领域如自动驾驶、智慧医疗开展相应的试点工作,积累相关经验,为全面治理人工智能提供参考。
人工智能迅速发展的同时,也给法律监管带来了新的挑战。我们需要在尊重技术发展的前提下,建立完善的法律框架,以应对未来可能出现的更多复杂情况。在享受人工智能带来便利的同时,我们也需要认真对待法律及伦理层面的挑战,让这匹狂奔的马驹在法律的缰绳下健康成长。