Meta计划将90%产品风险评估转向AI,员工警告可能忽视严重风险
时间:2025-06-11 13:15
小编:小世评选
根据IT之家6月1日的报道,社交媒体巨头Meta(原Facebook)正计划将其产品潜在风险评估的工作重心,从传统的人工审查模式,转向更加依赖人工智能(AI)的审核流程。Meta的目标是让高达90%的风险评估任务交给AI处理,这一转变将影响到包括青少年安全以及信息真实性在内的多个领域。
在过去,Meta旗下的各类社交如Instagram和WhatsApp,发布新的功能和更新时通常会经过彻底的人工审核。这一过程的核心在于行为规范和内容审查团队的专业判断,确保产品在投放市场之前最大程度地降低潜在风险。近两个月来,Meta公司已经显著加大了人工智能在安全审核中的作用。根据内部文件,产品开发团队现在需要填写一份关于其新产品的调查问卷,并将这些信息提交给AI系统进行审核。AI系统能够进行快速的风险评估,通常在短时间内提供“即时决策”,并指出潜在的风险领域。产品团队随后需根据AI的反馈来调整和优化产品,才能完成发布。
一些现任和前任员工对此表示担忧,他们警告说,过度依赖AI可能会忽略一些复杂的风险,这些风险在过去的人工审核中能够被及时识别。一位前高管直言不讳地指出,审核力度的减弱意味着Meta将面临更高的风险。“当你减少审核时,就相当于在创造更大的风险。这样会使产品变更的负面外部效应更难在问题产生之前被及时发现和阻止。”他补充说,这种趋势可能使Meta的上出现更多问题,包括误信息、网络暴力等。
在对外声明中,Meta表示,尽管公司正在推进AI的应用,仍会依赖“人类专业知识”来处理“新颖且复杂的问题”,这些问题可能超出AI的分析能力。同时,Meta强调,AI将主要处理“低风险”决策,确保对于重大和复杂风险的评估由专业团队负责。
这项转变的影响不仅限于操作流程,同样也可能改变Meta的整体文化和安全策略。随着AI的使用加剧,如何平衡创新速度与用户安全之间的矛盾,将成为Meta必须密切关注的课题。
不久前,Meta刚刚发布了最新的季度诚信报告,这是该公司今年早些时候调整内容审核和事实核查政策后的首份报告。从报告来看,在政策调整后,被删除的内容数量如预期般有所下降,但同时霸凌和骚扰行为、以及暴力和血腥内容却略有上升。这种现象引发了外界对于Meta内容安全策略的广泛关注,尤其是在其日益依赖AI的背景下,是否能够保持用户环境的安全性和合规性,成为了一个重要课题。
随着行业对AI应用的前景抱有较高的期望,Meta是否能在确保安全的同时推进技术革新,成为了关注的焦点。AI虽然具备极高的处理效率,但其在风险评估中的局限性也需要引起重视。人机协作将是解决这一矛盾的关键所在。
在这样的情况下,Meta需要建立更为完善的监督机制,确保AI系统在执行任务时,可以获得人类专业团队的高效协作,从而降低因为完全依赖AI所带来的潜在风险。Meta也应该积极倾听员工的意见和反馈,确保在技术创新的过程中,能够全面考虑到用户安全和社会责任。
Meta如同其他科技巨头,将在AI的迅速崛起和应用中,面临巨大的机遇和挑战。在追求效率的同时,如何以人为本,保障用户安全,将是公司必须认真对待的任务。未来的成功,不仅仅取决于技术的运用,更在于如何平衡技术与伦理、效率与安全之间的关系。