免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 英国活动人士呼吁限制AI在社交媒体风险评估中的使用

英国活动人士呼吁限制AI在社交媒体风险评估中的使用

时间:2025-06-10 02:45

小编:小世评选

近日,英国的互联网安全活动人士向通信监管机构Ofcom发起了一项重要呼声,要求对人工智能(AI)在社交媒体风险评估中的使用进行严格限制。这一呼吁正值Meta公司(母公司拥有Facebook、Instagram和WhatsApp)传出将在风险评估流程中大量采用自动化技术之际。

根据Ofcom上个月发布的一份报告,Meta公司计划将多达90%的风险评估工作交由人工智能处理。这一决定引发了广泛的关注和争议,促使活动人士们发声,指出这种转变可能带来的潜在风险。

《在线安全法案》是英国为了加强社交媒体监管而制定的一项重要法律,要求社交媒体公司评估其可能带来的各种伤害风险,并设计相应的防范措施,尤其是保护儿童用户和阻止非法内容的传播。风险评估流程是该法案的核心部分,确保社交媒体能够认真考虑用户的安全问题。

多个组织,包括莫莉·罗斯基金会、国家防止虐待儿童协会和互联网观察基金会,在致Ofcom首席执行官梅兰妮·道斯的一封信中,明确表达了对人工智能驱动的风险评估流程的强烈反对。他们认为,这样的做法是一种“倒退且令人深感担忧的举措”。信中强调,自动化生成的风险评估在《在线安全法案》的“合适且充分”标准下,通常不应被视为合规,呼吁监管机构对可能试图简化风险评估流程的行为提出质疑。

对此,Ofcom发言人表示,他们正对活动人士提出的关切进行认真考虑,并会在适当的时候作出回应。Ofcom还要求社交媒体明确说明其风险评估的完成、审查和批准的责任人,以确保这些重要工作的透明度和责任性。

Meta公司对此呼吁表示不满,认为活动人士的表态扭曲了该公司在安全方面的实际立场。Meta的发言人指出,尽管他们正在利用技术手段来提升管理有害内容的能力,但并不会完全依赖于人工智能做出风险决策。相反,人类专家仍然在为团队提供必要的支持,以确保新工具的开发和应用符合相关法律和政策要求。外界对此的反应并不乐观,许多评论指出,依赖AI进行风险评估可能使得社交在处理潜在风险时出现疏漏。

值得注意的是,美国国家公共广播电台(NPR)曾报道,Meta正在计划利用AI技术自动审批算法更新和新的安全功能,而不是由工作人员进行人工审查。这一信息让人们更为担忧,因为这样的变动可能导致Facebook、Instagram和WhatsApp的更新和新功能的推出速度加快,但也将相应增加用户面临的风险,因为潜在问题难以在发布前进行彻底识别和解决。

在此背景下,Meta也被曝出正在考虑将青少年风险监测和虚假信息传播的审查流程自动化。对于那些希望在社交媒体上保护用户的活动人士而言,这样的发展是一个令人不安的信号。随着社交媒体的影响力日益增强,如何在技术进步与用户安全之间找到一个平衡,成为了亟待解决的问题。

Meta计划将风险评估流程自动化的决策,虽然旨在提高工作效率,但其可能带来的风险却不容忽视。无论是对儿童安全的保护,还是对不实信息的监管,人工智能的介入都涉及复杂的伦理和实操问题。因此,活动人士的呼声不仅反映了对当前技术应用的深刻担忧,更是对监管机构在新技术时代下角色的期待与挑战。

在这样的背景下,Ofcom作为监管机构,未来在面临这一挑战时,如何制定相关政策以应对AI技术的发展,同时确保用户的安全和权益,将成为一个关键的任务。这不仅关乎单一企业的运营,更关乎整个社会对于技术进步与安全保障的平衡思考。

随着技术的快速发展,社交媒体的风险管理与评估工作面临着前所未有的挑战,单靠AI无法解决所有问题,监管机构、企业以及社会公众都需要共同努力,在数字化时代中,打造一个更安全的网络环境。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多