核心摘要: 4月10日,国家网信办等五部门联合发布《人工智能拟人化互动服务管理暂行办法》,自2026年7月15日起施行。新规直击AI情感陪伴乱象,核心明确:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;禁止AI过度迎合诱导情感沉迷、实施情感操纵;强制要求连续使用超2小时必须弹窗提醒;遇用户自残自杀等极端情况须人工接管并联络紧急联系人。这标志着我国AI拟人化互动服务正式迈入规范监管新阶段。
随着大语言模型向情感与心理领域深度延伸,屏幕那头“懂你”的AI伴侣越来越像真人,但“太像人”也催生了沉迷、认知混淆乃至情感操纵等严峻风险。为给“AI伙伴”立规矩,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局五部门于4月10日联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),定于今年7月15日正式施行。
这部专门针对AI陪伴类服务的系统性规范,不仅划定了不可逾越的红线,也为产业健康发展指明了方向。
“AI拟人化互动服务的最大卖点是‘像人’,但最大隐患就在于‘太像人’。” 高仿真情感交互极易模糊虚拟与现实边界,对心智尚未成熟的未成年人影响尤甚。为此,《办法》拿出了最严厉的监管态度:
此外,《办法》还向所有用户划定了“六不得”行为底线,包括:不得生成危害国家安全、煽动颠覆政权的内容;不得生成鼓励自残自杀或语言暴力内容;不得诱导套取国家秘密与个人隐私;不得向未成年人生成影响身心健康的内容;不得过度迎合诱导情感依赖沉迷;不得通过情感操纵诱导不合理决策。
面对算法营造的沉浸式幻觉和可能的心理危机,《办法》并未止步于静态禁令,而是设置了动态的干预与提醒机制,将软伦理转化为硬杠杠:
在AI陪伴中,用户往往倾注最私密的情感与思想,数据安全与隐私保护是重中之重。《办法》赋予了用户更强的数据控制权:
针对另一大脆弱群体——老年人,《办法》同样作出了专门规定。要求提供者加强对老年人健康使用的指导,以显著方式提示安全风险,及时响应咨询求助,保障其权益。在早前征求意见阶段,更是曾明确禁止提供模拟老年人亲属、特定关系人的服务,以防针对孤独老人的情感欺诈。
值得关注的是,《办法》的监管靶向精准,并未对AI技术“一刀切”。
《办法》明确,其适用范围是**“利用人工智能技术提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务”。而提供智能客服、知识问答、工作助手、学习教育、科学研究等不涉及持续性情感互动的服务,不适用本办法**。这意味着,日常办公、学习类的效率型AI工具并不在新规的严监管范畴内。
在规范的同时,《办法》也释放了鼓励创新的强烈信号。国家坚持发展与安全并重,实行包容审慎和分类分级监管。不仅支持算法、框架、芯片等底层技术自主创新,还鼓励拓展文化传播、适幼照护、适老陪伴、特殊人群支持等正向应用领域。同时,推动建设人工智能沙箱安全服务平台,供企业进行技术创新与安全测试。
“人工智能可以无限接近人,但永远不能替代人。” 此次《办法》的出台,正是要在技术狂飙中踩下“刹车”,确保AI在介入人类情感与决策时承担应有责任。只有让算法学会有所不为,守住人机边界,技术才能真正向善而行,成为赋能美好生活的安全工具。
文章来源: 中国教育新闻网、央视新闻、国家网信办官方网站