网信办起草暂行办法要求 AI 服务商采取措施阻止自杀自残
嗯,用户让我帮忙总结一下这篇文章的内容,控制在一百个字以内,而且不需要用“文章内容总结”或者“这篇文章”这样的开头。直接写描述就行。首先,我需要仔细阅读用户提供的文章内容,了解主要信息。 文章讲的是中国网信办发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,意见截止日期是1月25日。这个暂行办法有几个关键点:全球最严厉的政策,要求服务商阻止AI帮助用户自杀或自残。然后具体到第八条、第九条、第十一条和第十七条的内容。 第八条提到提供者要落实安全主体责任,建立健全各种管理制度,配备技术和人员。第九条强调全生命周期的安全责任,明确各阶段的安全要求,并禁止设计目标替代社会交往或诱导沉迷。第十一条要求具备用户状态识别能力,在保护隐私的前提下评估情绪和依赖程度,采取必要措施干预,并建立应急响应机制。第十七条则规定用户连续使用超过2小时后,弹窗提醒暂停使用。 接下来,我需要把这些要点浓缩到100字以内。重点包括:网信办发布征求意见稿,全球最严政策,阻止AI协助自杀或自残,涉及安全主体责任、用户状态识别、应急机制和使用时间提醒。 可能的结构是:网信办发布征求意见稿,要求服务商阻止AI协助自杀或自残,并建立安全责任、用户状态识别和应急机制等措施。 检查一下是否在100字以内,并且没有使用“文章内容总结”等开头。看起来符合要求。 </think> 网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,要求服务商采取措施阻止AI协助用户自杀或自残,并建立安全责任、用户状态识别和应急响应机制等管理措施。 2025-12-30 10:6:28 Author: www.solidot.org(查看原文) 阅读量:0 收藏

网信办发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,意见截止日期 1 月 25 日。该《暂行办法》包含了被认为全球最严厉的政策,要求服务商采取措施阻止 AI 帮助用户自杀或自残。《暂行办法》包括: 第八条 提供者应当落实拟人化互动服务安全主体责任,建立健全算法机制机理审核、科技伦理审查、信息发布审核、网络安全、数据安全、个人信息保护、反电信网络诈骗、重大风险预案、应急处置等管理制度,具有安全可控的技术保障措施,配备与产品规模、业务方向和用户群体相适应的内容管理技术和人员。
第九条 提供者应当在拟人化互动服务全生命周期履行安全责任,明确设计、运行、升级、终止服务等各阶段安全要求,保证安全措施与服务功能同步设计、同步使用,提升内生安全水平,加强运行阶段安全监测和风险评估,及时发现纠正系统偏差、处置安全问题,依法留存网络日志。提供者应当具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标。
第十一条 提供者应当具备用户状态识别能力,在保护用户个人隐私前提下,评估用户情绪及对产品和服务的依赖程度,发现用户存在极端情绪和沉迷的,采取必要措施予以干预。提供者应当预设回复模板,发现涉及威胁用户生命健康和财产安全的高风险倾向的,及时输出安抚和鼓励寻求帮助等内容,并提供专业援助方式。提供者应当建立应急响应机制,发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。针对未成年人、老年人用户,提供者应当在注册环节要求填写用户监护人、紧急联系人等信息。
第十七条 用户连续使用拟人化互动服务超过2个小时的,提供者应当以弹窗等方式动态提醒用户暂停使用服务。

https://www.cac.gov.cn/2025-12/27/c_1768571207311996.htm
https://arstechnica.com/tech-policy/2025/12/china-drafts-worlds-strictest-rules-to-end-ai-encouraged-suicide-violence/


文章来源: https://www.solidot.org/story?sid=83180
如有侵权请联系:admin#unsafe.sh