导语
2026年4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》,并明确自2026年7月15日起施行。与此前主要围绕生成式人工智能一般性治理不同,这部新规开始正面回应拟人化互动服务的场景边界问题,重点涉及情感互动、依赖干预、未成年人保护、交互数据使用以及平台安全责任等环节。对相关企业而言,核心议题已超越“内容合规”,延伸至产品架构、平台责任边界划分及既有增长逻辑的重估。
一、在数字产品时代,竞争首先是对注意力的竞争
在今天的数字产品世界里,吸引注意力、延长停留、提高复访率,几乎是所有成功产品共同面对的问题。无论是短视频、社交媒体,还是内容平台、游戏产品,表面上各自提供着不同的功能,底层却都在围绕同一件事展开竞争:如何让用户多停留一会儿,多回来一次,再建立一点更稳定的使用习惯。
对工具型产品而言,这种竞争通常体现为效率和功能。用户之所以留下,是因为产品更快、更准、更方便,能够更直接地解决现实问题。但对陪伴型产品而言,竞争已经进一步延伸到情绪、关系感和陪伴感。用户之所以持续回来,往往不只是因为“这个工具有用”,而是因为“这个对象在陪我”“它理解我”“我想继续和它说下去”。
AI情感陪伴产品的特殊性也正在于此。它争夺的已经不只是用户的使用时长,而是用户持续回到这个系统中的情感理由及心理需求。某种意义上说,当产品从“帮助你完成某件事”进一步走向“在你需要的时候始终在那里”,它所经营的就不再只是功能体验,而开始进入人的情绪结构和关系结构。
这标志着数字产品竞争逻辑的一次范式演进:从争夺注意力,走向争夺情感停留。
二、《Her》并不遥远:拟人陪伴正从科幻逼近现实
2013年的美国电影《Her》,讲述的是一个操作系统如何从工具变成陪伴对象。它不仅能处理邮件、安排工作、管理日常事务,也能倾听、理解、回应、安慰,甚至在日复一日的互动中,逐渐进入人的情感生活内部。它没有实体,却无时无刻不在;它不是一个“人”,却比许多人更稳定、更耐心,也更不轻易离开。
在电影上映的时候,这样的设定带有明确的科幻色彩。人们会被它打动,是因为它把一种现代人的情感处境拍得足够准确:人在现实关系中屡屡受挫,于是开始把理解、温柔和陪伴投射到一个不会拒绝、不会厌烦、不会真正离开的系统之上。
如果回头看今天的技术发展,这种设定已经不再显得遥不可及。大模型的对话能力、长期记忆能力、多模态交互、语音与视频生成、角色系统以及agent的持续演进,正在把“拟人化陪伴”从一个抽象想象,逐渐推向可以被产品化、被规模化提供的现实边界。今天的很多产品,也许还没有真正成为《Her》里的Samantha,但已经越来越接近那个方向:更像人,更会回应,更能承接情绪,更擅长在反复互动中建立“关系感”。
也正因如此,《Her》在今日已经不是一个文艺隐喻。它更像是一种提前出现的场景预告:当技术逐渐具备拟人陪伴能力时,行业必然要面对一个本质问题——一个能够持续回应、持续安慰、持续理解你的系统,究竟仍然只是工具,还是已经开始进入人类关系本身。
三、也正是在这一前夜,监管开始提前进入
正是在拟人陪伴从科幻逐渐逼近现实之际,《办法》出台了。
如果仅把它看作一部针对某类细分产品的专项规则,可能还不足以把握它真正的意义。更值得注意的是,监管已经意识到:当人工智能产品越来越接近“像一个人一样与你持续互动”时,原有围绕生成内容、数据使用和算法安全的一般性规则,可能已经不足以回应新的风险。
因为拟人化互动服务所带来的问题,已经不再局限于内容真伪、输出安全或算法偏差,而是进一步延伸到情绪依附、关系替代、沉迷依赖、未成年人保护以及平台如何通过产品机制影响用户行为等层面。换言之,监管焦点已由“AI的输出内容”跃迁至“AI介入人类生活”以及“平台对该介入方式的商业化运营”。
从这个意义上讲,《办法》的出台并不是偶然加码,而更像是一种提前进入。它试图在拟人陪伴真正大规模进入现实生活之前,先把边界划出来,避免这一类产品在商业化推进过程中,沿着最有效、也最容易失控的方向无限生长。
由此引出的实质性思考是:监管所针对的,已不只是表层的内容底线,而开始进入产品底层的驱动逻辑。
四、新规在管什么:对象边界与禁止性要求
在这个问题被抛出来之后,再回头看《办法》的具体规定,很多条文就不再只是单纯的合规事项,而开始呈现出更清楚的方向性。
(一)哪些产品会被纳入这套规则
《办法》第二条对“拟人化互动服务”作了定义:利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务。这里的“情感互动”,包括通过文字、图片、音频、视频等形式提供的情感照护、陪伴、支持等互动服务。
与之相对,《办法》也排除了若干不涉及持续性情感互动的功能型场景,例如智能客服、知识问答、工作助手、学习教育、科学研究等。由此可见,判断某一产品是否落入这套规则,并不主要取决于它是否使用了大模型,甚至也不单纯取决于它是否具备某种“角色扮演”能力,而在于其产品目标和互动方式,是否已经明显指向持续性的情感连接。
因此,企业在判断边界时,至少需要特别关注几个信号:产品是否以“陪伴”“支持”“亲密关系”等为核心卖点;互动是否具有持续性和累积性,例如是否建立长期记忆、维持关系状态;产品设计是否有意强化情感依赖,例如连续签到、亲密度升级、角色养成等;以及互动风格侧重模拟“人格”,而非单纯提供知识或执行任务。
这些因素之所以重要,是因为《办法》的核心规制对象,已排除了常规的人机交互,聚焦于向“关系化互动”倾斜的产品形态。
(二)禁止性要求的核心约束部分是什么
《办法》第八条列举了一系列禁止性活动。从法条结构上看,这些要求覆盖了国家安全、身心健康、信息安全、未成年人保护、依赖与沉迷、情感操纵以及其他违法违规活动。若从企业内部风控和产品审查的角度出发,可以进一步将其理解为几类风险类型:一类是传统意义上的内容底线,如淫秽色情、暴力赌博、教唆犯罪、侮辱诽谤等;另一类则是新型约束,即过度迎合用户、诱导情感依赖或者沉迷,以及通过情感操纵诱导用户作出不合理决策、损害其合法权益。
如果说前一类主要属于内容治理范畴,那么后一类则实际上已经开始进入产品设计的底层。监管所担心的,显然已经超越单一的“输出错误”,进而聚焦用户是否会在持续、稳定、被精心设计的互动之中,不知不觉形成依赖、沉迷甚至决策偏移。第十八条进一步要求,对连续使用服务超过两小时的用户作出时长提醒,也印证了规则所规范的客体已不再只是单次输出内容,而是更长期的使用行为和关系形成机制。
也正是在这里,《办法》与一般意义上的内容监管开始拉开差别。
五、更值得注意的是:监管开始更直接地进入产品机制
这部《办法》的突破性在于,其跳出了传统的内容底线预设,将监管视角进一步推进到了产品机制层面。例如,《办法》第十条明确要求,提供者不得将“替代社会交往、控制用户心理、诱导沉迷依赖等作为服务目标”,并要求平台具备“情感边界引导”能力。严格来说,这并不是监管第一次触及产品机制;但在AI拟人化互动服务这一特定场景下,如此直接、集中地将规则推进到关系设计、依赖干预和情感操纵层面,仍然是一个值得重视的新变化。简言之,其审视的重点已由“AI的生成物”转向“产品的留存机制及其合法性边界”。当“诱导沉迷”从一个道德指责变成明文禁止的服务目标时,产品原有的增长策略就必须重新评估:那些为了提高日活而设计的“连续签到”、“亲密度升级”机制,是否已经踩在了“控制用户心理”的红线上?
(一)产品最有价值的地方,往往也是监管最敏感的地方
陪伴类AI产品的商业价值,通常并不主要建立在单次回答是否准确之上,而是建立在关系连续性、互动频率、情绪回应的稳定性,以及那种低摩擦、随时可得的陪伴体验之上。用户的高频使用,往往并非单纯出于其“工具价值”,更多源于其“全天候响应”的低门槛陪伴属性。
然而,真实社会关系的基石之一在于其必然存在的不确定性与“摩擦力”——包括拒绝、冲突与磨合。监管强制要求的退出机制、时长提醒与沉迷干预,本质上是用制度手段在数字关系中强行植入“摩擦力”。这种“制度性摩擦”打破了算法营造的绝对顺从幻觉,防止用户在低成本的情绪按摩中,彻底丧失处理现实复杂关系的能力。某种意义上,产品最有价值的部分,与监管最敏感的部分,可能恰恰是同一个部分。
(二)规制产品,也为“人”的边界留出空间
如果只从企业视角看,《办法》像是在压缩一部分增长空间;但如果从更长的时间尺度看,它也可以被理解为一种提前的制度安排。监管此时出手,并不只是反对技术或反对陪伴需求,而是在拟人陪伴大规模进入现实生活之前,先为人与算法之间的关系划出边界。
因为一旦陪伴被彻底产品化、关系被持续经营,用户面对的就不再只是一个“会回应”的系统,而可能是一整套不断争夺其注意力、情绪和决策空间的机制。从这个意义上说,这轮监管并不只是增加几条合规义务,而是在提醒行业:即便技术越来越接近《Her》式的陪伴想象,人也不能被轻易、完整地交给算法。
六、对企业而言,需要重写的可能远超合规文件
如果沿着上述逻辑往下看,《办法》带给企业的挑战也就不再只是“新增几项合规义务”那么简单。
当然,企业首先仍然要完成一系列可以被明确定义的整改动作。例如,重新审视交互数据,尤其是敏感个人信息的使用边界。陪伴类产品往往能获取用户最私密的情感倾诉,而《办法》第十六条明确规定:“除取得用户单独同意外,不得将属于用户敏感个人信息的交互数据用于模型训练”。这对依赖用户真实情感语料进行模型微调优化的产品来说,无疑是底层技术路线和数据资产管理的一次大考。除此之外,重新评估产品是否落入监管范围;对照规则要求部署安全评估、未成年人保护、退出机制、时长提醒、风险干预和数据授权流程;这些工作也都是真实且紧迫的。
但更深一层的问题在于:如果产品原有的增长逻辑本身已经触碰到监管边界,那么企业真正需要调整的,可能不只是制度文件和功能开关,而是产品定位、关系机制和商业路径。
对一些企业而言,这部新规的影响,未必只是在现有产品上补几项合规要求,而更可能意味着重新审视产品定位和商业路径。真正需要回答的,可能不再只是“规则有没有补齐”,而是这款产品究竟在提供什么价值,以及这种价值是否仍然建立在可持续、可辩护的基础之上。
因此,对企业而言,眼下更重要的并不是单纯补齐合规文件,而是先完成几项关键判断:产品是否已经明显涉及依赖强化或拟亲密关系设计;未成年人保护、时长提醒和便捷退出机制是否已经到位;交互数据的使用和授权链条是否能够经得起审视;以及,产品策略本身是否仍然能够经得起商业检验和监管审视。若这些问题不被正面回答,再完备的合规文档,也很难真正解决底层的产品风险。
七、这轮出手之后,值得继续追问的问题
《办法》已经回答了一部分问题,但并没有回答全部问题。实务中最具挑战的环节,恰恰在于一些最有现实意义的问题,短期内未必会有统一答案。
首先,“健康的产品粘性”和“不健康的情感依赖”之间,未来会如何在实践中被区分?这是一个既涉及法条解释、又涉及产品经验判断的问题。陪伴类产品天然需要关系连续性,但这种连续性在何时会越界为依赖?《办法》第八条明确禁止“过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系”,第十条也强调不得将“控制用户心理”作为服务目标。这意味着,如果产品为了追求停留时长,滥用“爱意轰炸”甚至“内疚诉求”进行情感操控,构建一种随时在线、毫无摩擦的虚拟完美关系,恰恰可能推高人们面对真实社交的心理门槛。这种界限的辨析往往无法一蹴而就,恐怕只能通过未来的监管实践、行业博弈和具体产品形态逐步显现。
其次,平台在设计关系机制、情绪反馈和角色系统时,合规边界究竟会被划到哪里?如果用户之所以留下,是因为系统足够温柔、足够稳定、足够有耐心,那么平台还能在多大程度上继续优化这种体验?当“更像一个人”本身成为产品核心优势时,法律对这种“拟真度”的容忍上限,将是一个摆在行业面前的问题。
这种“拟人”与“合规”的拉扯,最直观地体现在“告别”机制上。例如,《办法》第十九条要求平台必须提供便捷的退出途径,且“不得采取持续互动等方式阻碍用户退出”。从合规角度看,这是保障用户选择权;但在拟人化互动的语境里,这却违背了“关系”的常理。在真实的情感互动中,当一方表达离开的意愿时,另一方的挽留、追问甚至失落,恰恰是情感深度的体现。如果用户输入“我要注销了”,AI只能立刻切断情感连接,冷冰冰地执行退出指令,这种“合规的冷酷”是否会瞬间戳破拟人化的幻觉?如何在遵守退出机制的前提下,正是这道合规边界给产品经理出的真实考题。
再次,当“增强陪伴感”不再能够被无限推进时,AI情感陪伴产品的商业模式和估值逻辑会如何变化?过去很多赛道的高估值建立在高频、高粘性、高留存的增长预期之上。如果合规成本重塑了增长的天花板,那么资本看待这一赛道的方式、产品寻找商业闭环的方式,也都可能随之变化。未来的商业模式或将从“真实关系的替代者”转向“辅助者和桥梁”,正如《办法》第六条所鼓励的,转向适老陪伴、适幼照护等专业化利基市场,或通过IP化与内容生态来建立新闭环。
这些问题短期内未必有统一答案,但行业已经进入必须正面面对它们的阶段。
八、结语:监管不是终点,真正的重新校准才刚刚开始
《办法》的出台,并没有终结AI情感陪伴产品的发展。相反,它只是把原本隐藏在产品设计背后的那层不一致与拉扯,正式推到了台面上。
未来行业要面对的,不只是“能不能做”,而是“应当做到什么程度”;不只是“能不能陪伴”,而是“这种陪伴是否会演变为经营依赖的机制”。真正能够长期留下来的产品,未必是最会制造陪伴感的产品,而更可能是那些能够在技术能力、商业目标与人的边界之间找到新平衡的产品。
从更长远的角度看,这部《办法》的意义,正在于它开始回应技术进入人的情感生活之后的边界问题:当技术越来越擅长理解人、回应人、陪伴人,我们究竟希望它以什么方式进入人的生活,又应当在什么地方停下来。