免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > 团体标准发布:加强未成年人生成式人工智能服务安全保障

团体标准发布:加强未成年人生成式人工智能服务安全保障

时间:2025-06-11 04:40

小编:小世评选

南都讯 记者李玲 随着生成式人工智能技术的快速发展,如何有效保障未成年人在这一技术环境下的安全问题越来越受到社会的关注。一份由来自产业、学术、教育等多个领域的60家单位共同起草的团体标准,将为行业提供明确的安全指引。

在2025年中国网络文明大会的人工智能分论坛上,《向未成年人提供生成式人工智能服务安全指引》(下称《指引》)于6月10日正式发布。此《指引》的制定是在中央网信办网络管理技术局等相关部门的指导下,旨在促进未成年人的安全、健康成长。

强调未成年人利益的原则构建

《指引》明确坚持“最有利于未成年人”的原则,旨在构建一个“安全可控、权责清晰、协同共治”的治理框架。针对生成式人工智能服务所涉及的训练数据、模型开发、应用场景以及服务运营的全生命周期,《指引》提出了一系列系统性安全管理要求,以确保未成年用户在使用这些服务时的安全和隐私得到充分保护。

训练数据管理:严禁非必要数据采集

在训练数据使用阶段,《指引》强调对未成年人个人信息的严格保护,禁止采集与服务目的无关的非必要数据。同时,特别对涉及未成年人的数据实行分类分级管理。这一举措能够有效降低潜在的数据安全风险,为未成年人的数据保护打下坚实的基础。

特别值得注意的是,《指引》对境外公开数据集、网络采集数据及商业数据的使用提出了安全性要求。建议在训练过程中应避免使用含有违法、不良信息比例超过5%的原始数据集,务必对计划采用的训练数据进行清洗和标注。对于学习教育类的生成式人工智能模型,《指引》提出,要构建科学、可靠的高质量训练数据集,确保过滤掉错误的知识内容。

模型训练阶段的安全防范

在模型训练环节,《指引》明确强调需重点防范生成有害内容及个人信息泄露的风险。建议采用未成年人保护评价机制,确保生成内容的安全性成为评估模型效果的重要指标。在此过程中,要引入保护未成年人权益的安全原则,确保模型输出符合伦理标准,减少潜在的偏见。通过对模型输出内容的识别与过滤,及时改写或剔除有害信息,增强内容的安全性。

应用场景的风险管理

在生成式人工智能服务的实际应用中,《指引》建议服务提供者建立有效的技术防护及安全管理措施,确保生成内容的安全性、可靠性和真实性。尤其是在某些特殊场景下,《指引》特别指出,要警惕未成年人可能的沉迷问题和情感依恋等风险。因此,需要采取合理的应对措施,如预警、风险提示和风险阻断,以最大程度地保障未成年人的安全。

服务运营中的未成年人保护

在运营和管理阶段,《指引》对未成年人的身份认证、保护模式以及网络防沉迷机制提出了具体的建议。例如,在网络社交、网络游戏、网络、在线教育等多种场景下的生成式人工智能服务中,建议合理限制未成年人的消费,并严格控制提供与其民事行为能力不符的付费服务。

《指引》鼓励服务提供者探索建立与未成年人民事能力相适应的消费限额规则,并逐步完善未成年人消费退款处理的相关规则和流程。这些措施不仅保障了未成年人的消费权益,亦为行业的稳定发展奠定了基础。

协同共治:行业共建安全生态

《指引》强调“主体责任+社会共治”的协同模式,呼吁企业与科研单位、教育机构等共同努力,推动适龄化产品的研发,提升社会对人工智能素养的认知与理解。从而营造一个更为安全、友好的儿童成长环境。

作为补充,附录部分进一步细化了生成内容、数据安全、未成年人保护模式等具体的操作指南,为行业从业者提供实践依据,助力建立一个全面、安全的未成年人人工智能服务环境。

《指引》的发布不仅是对未成年人的保护,更是推动生成式人工智能服务良性发展的重要一步。未来,随着这一标准的落实与执行,我们期待看到一个更加安全、健康的数字世界,让每一个未成年人都能在生成式人工智能技术的应用中受益。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多