免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 英国监管机构考虑限制AI在社交媒体风险评估中的使用

英国监管机构考虑限制AI在社交媒体风险评估中的使用

时间:2025-06-09 19:15

小编:小世评选

近年来,随着人工智能(AI)技术的迅猛发展和广泛应用,越来越多的行业开始依赖AI来提升效率和准确性。AI在关键决策中的使用也引发了诸多担忧,尤其是在社交媒体安全领域。根据《卫报》的报道,英国通信监管机构Ofcom正在考虑限制AI在社交媒体风险评估中的使用,这一提议源于多个互联网安全组织的呼吁。

这些组织,代表了包括莫莉·罗斯基金会、国家防止虐待儿童协会(NSPCC)和互联网观察基金会在内的多方机构,向Ofcom首席执行官梅兰妮·道斯发出信件,表达了对Meta公司(Facebook、Instagram和WhatsApp的母公司)计划将风险评估流程自动化的严重关切。信件中强调,使用AI技术进行风险评估被视为“倒退且令人高度担忧的举措”,并指出这可能会对儿童用户的安全构成威胁。

根据英国《在线安全法案》的规定,社交媒体有责任对潜在的伤害风险进行评估,并采取相应的缓解措施。这一法案强调了保护未成年用户和防止非法内容传播的重要性,因此风险评估流程被视为合规的核心内容。Meta企图通过AI自动化这一流程的举动,可能会导致评估的准确性和全面性的降低。

Ofcom在一份报告中指出,Meta旗下的社交媒体高达90%的风险评估工作可能将由AI来完成。这一数据引发了广泛讨论,令许多人开始怀疑AI是否具备足够的能力去理解和判断复杂的人类行为和社会风险。许多安全活动人士认为,依赖于技术算法进行风险评估,可能会忽视对人类情感和社会情境的理解,因此无法确保用户的全面安全。

在回应这些担忧时,Ofcom发言人表示,监管机构已明确要求社交媒体服务提供者告知评估的执行者、审查者和批准者,意在保证透明度和问责机制。Ofcom正在认真考虑信件中提出的关切,并承诺将在适当的时候进行回应,这表明监管机构正准备采取行动,以确保AI在风险评估中的使用不会影响到用户尤其是儿童的安全。

Meta公司对此次批评表示强烈反驳,称相关信件刻意歪曲了其在安全方面的立场。Meta的发言人表示,尽管公司正在使用某种技术工具来帮助识别产品是否符合法规和政策要求,但并非是将风险决策完全交给AI。相反,Meta强调其在技术使用上始终保持人类监督,以提升管理有害内容的能力,保证安全措施的高标准与合规性。

很多批评者对此表示怀疑。他们担心,AI系统的决策过程缺乏透明度,且算法模型可能受到数据偏见的影响,最终导致安全评估结果不符合社会的广泛标准。美国国家公共广播电台(NPR)曾报道,Meta有意通过AI对其算法更新及新安全功能进行审批,而非由人力进行审查。某位匿名前高管甚至指出,这种变化将加快Meta的更新节奏,增强公司回应市场动态的能力,但也可能使得潜在风险在产品推出前更难以被识别和预防。

NPR的相关报道还提及,Meta正在探索自动化监控青少年风险和虚假信息传播等敏感领域的可能性。这意味着,未来如果Meta成功实施这一自动化流程,可能将在对青少年用户的保护和防止虚假信息传播方面形成更大的挑战。

英国正在就AI在社交媒体风险评估中的使用展开深入讨论,显然,监管机构意识到这一技术带来的潜在风险与挑战,并开始重新审视其在保护用户安全方面的有效性。这场关于AI技术与用户安全的辩论将持续进行,如何在提升效率的同时,确保用户的安全与权益,将是社会各界亟待解决的难题。随着对AI技术应用的审慎考量,各方应加强沟通与协作,确保在科技革新的同时,能够有效地预防和减少潜在风险。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多