英国呼吁监管机构限制Meta使用AI进行风险评估以保护用户安全
时间:2025-06-13 11:35
小编:小世评选
近期,英国的互联网安全倡导者向国家通信监管机构Ofcom发出警告,要求对Meta(前身为Facebook)在关键风险评估中使用人工智能(AI)进行限制。这一呼吁源于一份引人关注的报告,报告指出Meta计划将高达90%的风险评估工作交由AI自动完成。此举引发了公众对于用户安全特别是未成年用户的广泛担忧。
根据英国《在线安全法》,社交媒体有责任评估其服务可能带来的危害并制定相应的减缓措施。风险评估被视为法律的重要组成部分,旨在确保用户尤其是儿童用户的安全。多个组织,包括Molly Rose基金会、儿童慈善机构NSPCC和互联网观察基金会等,对让AI主导风险评估的做法表示强烈反对,认为这是一个“倒退且极为令人不安的步骤”。
在致Ofcom首席执行官梅拉妮·道斯的信中,这些倡导者强调,如果风险评估过程完全或主要依赖自动化生成,则其结果不应被视为“合适且充足”。信中也提到,Ofcom应对在风险评估过程中降低标准的假设予以质疑。对此,Ofcom的一位发言人表示,监管机构将认真考虑信中提出的关切,并在适当的时候作出回应。
Meta在对此信件的回应中重申了其在用户安全方面的承诺。Meta的发言人表示:“我们并未使用AI来做出风险决策,而是开发了一种工具以帮助团队识别特定产品所需遵循的法律和政策要求。我们的技术是在人工监督下运作,目的是提升管理有害内容的能力,并且我们的技术进步显著改善了安全结果。”
Molly Rose基金会在组织信件时引用了美国广播公司NPR的报道,指出Meta最新的算法更新和新安全功能将主要由AI系统批准,而不再经过人工审查。一位匿名的前Meta高管也表示,虽然这种变化使得公司能够更快推出Facebook、Instagram和WhatsApp上的应用更新和新功能,但同时也可能带来“更高的风险”,因为在新产品发布前,潜在问题难以被发现。
NPR的报道还提到,Meta正在考虑自动化审查一些敏感领域,包括青少年风险和虚假信息传播。这一发展加大了社会对Meta在风险管理方面的担忧,因为缺乏人类审查可能导致问题无法得到及时处理,尤其是在涉及少年用户的情况下。
在数字环境中,社交媒体的影响力不断扩大,用户生成内容的质量和安全性亟需更多的监控与监管。随着AI技术的进步,许多正在探索更高效的内容审查和管理方式。但是否将这一重任完全交给却是一个需要深思的伦理问题。AI虽然能够处理大量数据并识别模式,但在面对复杂的社会现象和人类心理时,其判断力仍然有限。
这场围绕Meta和AI风险评估的争论,提示我们在追求技术效率的同时,不应忽视潜在的风险和后果。技术应当服务于人类而非取代人类的判断。各国监管机构必须对新兴技术持有审慎态度,确保法律法规始终能够保障用户的基本权益,尤其是未成年人,避免他们在数字世界中面临不可逆转的损害。
这一呼吁不仅是针对Meta,也是对整个科技行业的警示。各种数字在追求效率与经济利益的同时,亦须承担更多的社会责任。AI技术的引入不应成为削弱风险监控的借口。各大科技公司应当以更加负责任的态度对待技术的应用,尤其是在涉及人类安全和社会影响的关键领域。
未来,英国的监管机构如何回应这一呼吁并进行必要的监管,将对整个社交媒体行业产生深远影响。无论Meta最终选择何种路径,从长远来看,用户的安全与信任仍是互联网发展的基石。