央广网北京10月28日消息(记者冯仪 实习记者王祺姝)“平时,我会上网看动画片、玩游戏,还会上网查作业、用智能手表给爸爸妈妈打电话。但是,我也听说有同学在网上遇到麻烦,比如有人让女生发照片换游戏皮肤,大家都不知道该怎么办。爸妈总说少上网,可是我们离不开网络。”北京师范大学实验小学四年级的一位同学说出了她的困惑。
这样的“麻烦”并非个例,而是困扰着无数未成年人的切实问题。
社交、娱乐、学习……当下,广大未成年人的生活已经离不开互联网。共青团中央去年发布的《第6次中国未成年人互联网使用情况调查报告》显示,截至2023年,我国未成年网民规模上升至1.96亿人,未成年人互联网普及率达97.3%,互联网已经全面融入当代未成年人的日常生活和学习当中。
在享受技术发展所带来的便捷与机遇的同时,未成年人也面临着网络带来的风险和侵害。
网络欺凌、游戏充值
未成年人面临多元网络风险
拉聊天群辱骂、在校园“表白墙”上散播谣言……这是未成年网络欺凌的常见表现。“当前,未成年人面临的网络风险越来越频繁、多元化。”北京青少年法律援助与研究中心网络保护部门负责人陈强发现,游戏充值、直播打赏,隔空猥亵、网络欺凌、卷入信息犯罪活动等是未成年人面临的显著问题。
“例如,近年来未成年人进行网络游戏消费的情况非常普遍,很多案例中涉及的充值金额少则几千,多则数十万。这对于部分缺乏网络素养的家庭来说,是具有巨大经济风险又很棘手的问题。但当监护人尝试通过司法途径解决问题时,又面临着举证困难的现状。”陈强表示,这类情况在节假日等关键节点更加频发。
图源:CFP
2025年,北京法院未成年人网络司法保护典型案例显示,未成年人小张使用其母亲的手机在某游戏公司开发的游戏平台中下载游戏并充值10万余元。而该游戏公司在识别玩家为未成年人后,未锁定身份信息,也未提示验证家长进行监管,没有落实未成年人实名认证机制。
据北京师范大学新闻传播学院未成年人网络素养研究中心2025年发布的《2024中国青少年网络使用调研报告》显示,青少年网络消费行为也呈现低龄化、常态化趋势。超过三分之一的青少年曾在网络平台上产生付费行为,其中近15%的青少年每周消费金额超过100元。游戏、短视频与网购成为主要的网络消费场景。
我国第一部专门性的未成年人网络保护综合立法《未成年人网络保护条例》规定:“网络游戏、网络直播、网络音视频、网络社交等网络服务提供者应当采取措施,合理限制不同年龄阶段未成年人在使用其服务中的单次消费数额和单日累计消费数额,不得向未成年人提供与其民事行为能力不符的付费服务。”
同时,各地也在积极探索规范未成年人网络消费行为的解决方案。2024年,上海市普陀区检察院、区委网信办等部门共同编制《网络企业未成年人保护指导清单》,明确规定了分年龄段的消费限制:禁止向 8岁以下未成年人提供充值服务,并对 8—16 岁、16—18岁群体设置了差异化的充值上限,建立梯度化的保护机制。
浙江省杭州市政府积极探索基于年龄和认知水平的分级治理技术。当系统监测到未成年人在非常规时间(如凌晨两点)登录游戏平台时,系统将自动启动人脸识别验证,并向班主任发送预警信息。
往年,陈强所在的机构通过接收公益热线电话来解答未成年人和家长的疑问。近年来,法律援助也借助互联网的力量,渐渐转移到线上。“我们通过小程序为青少年们提供免费咨询,也在视频平台上传法律知识短视频,定期为他们解答法律问题,这是一项很重要的社会公众服务。”
AI“换脸”“脱衣”
技术滥用危害未成年人身心健康
目前,人工智能技术与经济社会各领域正在广泛融合,在改善社会生活的同时也给不少不法行为提供了可乘之机。
2024年,北京市委网信办、团市委指导发布的《青少年互联网使用情况调查报告(2024)》显示,受访青少年对人工智能的认知度非常高,对于人工智能的使用还处于持续探索中,尝试多种场景和用途。
图源: 《青少年互联网使用情况调查报告(2024)》
“如今,随着AI技术的不断发展,很多传统的网络风险增加了识别的难度。”陈强提到。
2024年,曾有媒体报道,AI生图大模型技术成熟后,“一键脱衣”被“开发”并逐渐泛滥。彼时,社交平台出现了一批“AI脱衣教程”视频。一些不法分子利用AI技术,将未成年人的照片制作成“裸照”,打包售卖;还有人利用“AI换脸”软件,把未成年学生面部信息替换到淫秽视频中进行有偿销售。
AI聊天软件同样乱象丛生。不少AI聊天软件准入门槛模糊,聊天内容充斥着色情擦边、语言暴力等元素,甚至诱导未成年人进行不恰当的对话。曾有家长投诉称,自己的女儿因过度沉迷AI聊天软件,出现情绪激动甚至割腕等行为。2025年6月,上海网信办通报筑梦岛APP等AI聊天软件存在虚拟角色互动生成低俗内容等问题,危害未成年人身心健康。
2025年4月,中央网信办启动“清朗·整治AI技术滥用”专项行动,将未成年人保护列为重点方向,严控算法生成暴力、色情等敏感内容对青少年的影响。
“未成年人在和AI智能体互动、进行情感交流的时候,我们无法得知他们在聊什么,也不知道这些软件在制造什么内容。”中国社会科学院大学互联网法治研究中心主任刘晓春表达了忧虑。“有一种声音认为,我们可以‘一禁了之’,禁止14岁以下的用户使用社交媒体。但是把孩子排除在人工智能时代以外,满了14岁又突然允许他们进入,这不是最有利的方式。开发和完善青少年模式、对内容进行治理、对未成年人进行特殊保护等是更务实的做法。”
加强学生数字素养
保护同时多给未成年人发声机会
让未成年人免受互联网侵害,该怎样做?
《未成年人网络保护情况报告(2025)》(以下简称《报告》)显示,目前,我国在法律体系、监管执法、司法保护、平台实践、素养教育和社会共识六个维度取得了未成年人网络保护工作的实践进展。
2025年7月15日,中央网信办启动为期2个月的“清朗·2025年暑期未成年人网络环境整治”专项行动,聚焦各类新情况新表现,整治实施网络侵害行为、隐蔽传播违法不良信息、诱导参与线下危险活动、利用未成年人形象牟利等四方面问题。
《报告》指出,人工智能正成为平台提升未成年人保护效能的重要手段。有平台推出的“人工智能未成年保护系统”具备人工智能识别未成年保护系统、干预未成年玩家不理性消费模型、监控与打击体系三大技术体系,用于判断玩家特征是否属于疑似未成年玩家,从而对其进行及时拦截核实和有效管控。
“学校要为学生搭建未成年人互联网保护的课程化平台,避免学生被有害信息侵蚀。”清华大学附属小学校长窦桂梅提到,教育的使命是求真务实,而AI技术让学生较难分辨互联网和真实世界的区别,因此,加强学生的数字素养显得尤为重要。“我们还与清华大学共同编写了《小学生人工智能通识读本》,完善AI+智慧课程包,让教师们也成为驾驭工具理性的掌舵者和守护价值理性的摆渡人。”
“现在,未成年人不仅仅是互联网的原住民,他们的数字能力也可能与成年人出现倒挂的现象。未成年人网络行为特点经常让我们感到惊讶,所以在保护他们的同时,也要多给他们发声的机会,让我们更了解他们在想什么。”刘晓春补充道,“此外,还要进一步优化社会制度和机制,打通各部门和平台的信息通路,协调发力。”