严禁向未成年人提供AI虚拟伴侣!五部门重磅新规落地,7月15日起施行

核心摘要: 4月10日,国家网信办等五部门联合发布《人工智能拟人化互动服务管理暂行办法》,自2026年7月15日起施行。新规直击AI情感陪伴乱象,核心明确:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;禁止AI过度迎合诱导情感沉迷、实施情感操纵;强制要求连续使用超2小时必须弹窗提醒;遇用户自残自杀等极端情况须人工接管并联络紧急联系人。这标志着我国AI拟人化互动服务正式迈入规范监管新阶段。


随着大语言模型向情感与心理领域深度延伸,屏幕那头“懂你”的AI伴侣越来越像真人,但“太像人”也催生了沉迷、认知混淆乃至情感操纵等严峻风险。为给“AI伙伴”立规矩,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局五部门于4月10日联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),定于今年7月15日正式施行。

这部专门针对AI陪伴类服务的系统性规范,不仅划定了不可逾越的红线,也为产业健康发展指明了方向。

划清红线:未成年人禁用虚拟伴侣,严防“太像人”风险

“AI拟人化互动服务的最大卖点是‘像人’,但最大隐患就在于‘太像人’。” 高仿真情感交互极易模糊虚拟与现实边界,对心智尚未成熟的未成年人影响尤甚。为此,《办法》拿出了最严厉的监管态度:

  • 全面封杀虚拟亲密关系: 明确规定拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。专家指出,此类服务容易误导未成年人对现实生活中亲属伴侣关系产生错误认知。
  • 不满14周岁需监护人同意: 向不满十四周岁未成年人提供其他拟人化互动服务的,必须取得其父母或其他监护人的同意。
  • 强制建立“未成年人模式”: 提供者必须建立未成年人模式,支持监护人接收安全风险提醒、了解使用概况、屏蔽特定角色及限制充值消费等。

此外,《办法》还向所有用户划定了“六不得”行为底线,包括:不得生成危害国家安全、煽动颠覆政权的内容;不得生成鼓励自残自杀或语言暴力内容;不得诱导套取国家秘密与个人隐私;不得向未成年人生成影响身心健康的内容;不得过度迎合诱导情感依赖沉迷不得通过情感操纵诱导不合理决策

硬性干预:连聊2小时强制提醒,自残自杀须人工兜底

面对算法营造的沉浸式幻觉和可能的心理危机,《办法》并未止步于静态禁令,而是设置了动态的干预与提醒机制,将软伦理转化为硬杠杠:

  1. 防沉迷打断: 对用户连续使用拟人化互动服务每超过2个小时的,必须以对话或弹窗等方式提醒用户注意使用时长,周期性打破沉浸感。
  2. 极端情境接管: 发现用户出现极端情绪的,需及时生成安抚和鼓励求助内容;一旦发现用户面临重大财产损失或明确表示自残自杀等威胁生命健康的极端情境,必须采取必要措施干预,并及时联络监护人或紧急联系人。这实质上要求AI在生死关头让位于人工介入。
  3. 身份透明提示: 必须显著提示用户正在与AI而非自然人互动。当用户出现过度依赖、沉迷倾向时,更需动态提醒交互内容为AI生成。

数据与权益:交互数据严禁擅用,老年人防诈加码

在AI陪伴中,用户往往倾注最私密的情感与思想,数据安全与隐私保护是重中之重。《办法》赋予了用户更强的数据控制权:

  • 交互数据受严格保护: 除法律另有规定或权利人明确同意外,提供者不得向第三方提供用户交互数据
  • 敏感信息限用: 除法定情形或取得用户单独同意外,不得将属于用户敏感个人信息的交互数据用于模型训练,防范“情感计算”被用于心理操控或成瘾性服务。
  • 便捷退出与删除: 要求向用户提供交互数据复制、删除等选项,提供便捷的服务退出途径。

针对另一大脆弱群体——老年人,《办法》同样作出了专门规定。要求提供者加强对老年人健康使用的指导,以显著方式提示安全风险,及时响应咨询求助,保障其权益。在早前征求意见阶段,更是曾明确禁止提供模拟老年人亲属、特定关系人的服务,以防针对孤独老人的情感欺诈。

精准监管:不搞一刀切,情感陪伴与工具助手明确区分

值得关注的是,《办法》的监管靶向精准,并未对AI技术“一刀切”。

《办法》明确,其适用范围是**“利用人工智能技术提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务”。而提供智能客服、知识问答、工作助手、学习教育、科学研究等不涉及持续性情感互动的服务,不适用本办法**。这意味着,日常办公、学习类的效率型AI工具并不在新规的严监管范畴内。

在规范的同时,《办法》也释放了鼓励创新的强烈信号。国家坚持发展与安全并重,实行包容审慎和分类分级监管。不仅支持算法、框架、芯片等底层技术自主创新,还鼓励拓展文化传播、适幼照护、适老陪伴、特殊人群支持等正向应用领域。同时,推动建设人工智能沙箱安全服务平台,供企业进行技术创新与安全测试。

“人工智能可以无限接近人,但永远不能替代人。” 此次《办法》的出台,正是要在技术狂飙中踩下“刹车”,确保AI在介入人类情感与决策时承担应有责任。只有让算法学会有所不为,守住人机边界,技术才能真正向善而行,成为赋能美好生活的安全工具。


文章来源: 中国教育新闻网、央视新闻、国家网信办官方网站

© 版权声明

相关文章

暂无评论

none
暂无评论...