● 3月1日起正式施行的《网络信息内容生态治理规定》,不但标志着我国在网络生态治理方面有法可依,而且还会将我国未成年人保护工作提升到新的高度
● 找到未成年人网络保护问题的根源,对症下药。未成年人涉及的网络保护领域有游戏、视频等领域,其中游戏是未成年人网络保护的主要领域。因此,需要在内容及上线时间两方面进行必要的约束
● 要完善堵疏结合的未成年人网络保护法律体系,多方共治,保障未成年人网络空间安全,保护未成年人合法网络权益
□ 本报记者 赵丽
为了营造良好网络生态,保障公民、法人和其他组织的合法权益,维护国家安全和公共利益,国家互联网信息办公室于2019年12月15日发布《网络信息内容生态治理规定》(以下简称《规定》),自2020年3月1日起正式施行。
据悉,《规定》是我国在网络生态治理方面制定的首部综合性专门立法,专款专项要求网络信息内容生产者和内容服务平台,要采取措施防止未成年人获得违法和不良信息。
业内人士称,这不但标志着我国在网络生态治理方面有法可依,而且还会将我国未成年人保护工作提升到新的高度。
不良信息充斥网络
未成年人防不胜防
中国互联网信息中心于2019年2月发布的《第43次中国互联网络发展状况统计报告》显示,截至2018年12月,我国网民规模达8.29亿,其中10岁以下网民占比4.1%,10岁至19岁网民占比17.5%。
随着互联网的高速发展,首次“触网”年龄持续走低。对于未成年人来说,网络世界在带给他们很多积极影响的同时,也掺杂着一些不良因素,甚至潜伏着危险。
另外几组数据也似乎证实了危险的存在。
根据2019年3月由共青团中央维护青少年权益部、中国互联网络信息中心联合发布的《2018年全国未成年人互联网使用情况研究报告》,截至2018年7月底,我国未成年人互联网普及率已经达到93.7%。15.6%的未成年人表示曾遭遇网络暴力,最常见的是网上讽刺或谩骂、自己或亲友在网上被恶意骚扰、个人信息在网上被公开。30.3%的未成年人曾在上网过程中接触到暴力、赌博、吸毒、色情等不良信息。
2019年8月,北京市第一中级人民法院发布的《未成年人权益保护创新发展白皮书(2009-2019)》就曾指出,近七成未成年人犯罪案件存在接触网络不良信息。
根据中国社科院发布的《社会蓝皮书:2019年中国社会形势分析与预测》,青少年在上网过程中遇到暴力辱骂信息的比例为28.89%。其中,暴力辱骂又以“网络嘲笑与讽刺”及“辱骂或用带有侮辱性的词汇”居多,分别为74.71%和77.01%;其次是“恶意图片或者动态图”和“语言或者文字上的恐吓”,分别为53.87%和45.49%。
法律体系日趋完善
堵疏结合多方共治
近年来,建议推进未成年人网络保护立法的声音不断涌现。
目前,世界上主要国家和地区都建立了针对未成年人网络保护的立法规范。例如,美国的《儿童在线保护法》和《儿童在线隐私保护法案》等;欧盟的《保护未成年人和人权尊严建议》《儿童色情框架规定》以及《通用数据保护条例》(GDPR)中涉及儿童的规定;韩国的《青少年保护法》以及针对网络游戏的一系列法规;日本的《青少年网络环境整治法》等。
在我国,未成年人网络保护立法的步伐也在不断加快。
2019年10月1日,我国首部专门针对儿童网络保护的立法——《儿童个人信息网络保护规定》正式施行,为儿童个人信息提供了明显强于一般规定的特殊保护。
2019年10月21日,未成年人保护法修订草案提请十三届全国人大常委会第十四次会议审议,全国人大社会建设委员会主任委员何毅亭在作说明时表示,修订草案增加了密切接触未成年人行业的从业查询及禁止制度、学生欺凌防控制度、网络沉迷防治等内容。
2020年3月1日正式施行的《规定》,规定网络信息内容生产者应当采取措施,防范和抵制制作、复制、发布能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等的内容;鼓励网络信息内容服务平台坚持主流价值导向,优化信息推荐机制,加强版面页面生态管理,专门以未成年人为服务对象的网络信息内容专栏、专区和产品积极呈现主旋律、正能量的信息。
“另外,《规定》鼓励开放未成年人模式,鼓励网络信息内容服务平台开发适合未成年人使用的模式,提供适合未成年人使用的网络产品和服务,给未成年人获取有益身心健康的信息提供便利。”中国传媒大学文化产业管理学院法律系主任郑宁对《法制日报》记者说。
在郑宁看来,《规定》的出台,对于构建完整的未成年人网络保护的法律体系具有重要意义,与民法、未成年人保护法、《未成年人网络保护条例(送审稿)》和《儿童个人信息网络保护规定》等法律法规一起,让未成年人在安全洁净的网络环境下,健康茁壮成长。
郑宁认为,要完善堵疏结合的未成年人网络保护法律体系,“堵”就是在源头上将不良内容阻截在未成年人群体之外;“疏”就是通过个性化算法推荐推送信息,建立体现主流价值导向的推荐模型,给未成年人推送合法正能量的信息,并且和学校、家长一起共同保护未成年人合法网络权益。此外,应禁止发布损害未成年人利益的内容,鼓励未成年人发布具有正能量的作品,建立具有中国特色的网络产品分级制度等,建立多方共治的未成年人网络保护机制。
约束内容上线时间
营造清朗网络空间
实际上,在如何限制未成年人使用网络上,相关部门采取了诸多措施,包括实名认证、限制时间、一键禁玩等。国家互联网信息办公室将网络的内容管理由被动变为主动,在2019年统筹指导21家主要网络视频平台上线了“青少年防沉迷系统”。
不过,也有业内人士称,虽然一些网络视频平台推出了青少年模式,对浏览时间作出限制,有些直播平台提示关闭打赏功能等,但大多数网络视频平台都是通过密码进入和退出,并未触及实名认证程序。如果监护人不能尽到监护责任,未成年人就有可能通过密码解锁“成年模式”。
中国消费者协会于2019年发布的《青少年近视现状与网游消费体验报告》显示,在体验的50款游戏中,超过三分之一的强制实名游戏未启用未成年人登录时段监护机制。17款强制实名游戏产品中,12款在使用未成年人身份实名登录后持续游戏的情况下出现过健康提醒,有两款游戏在持续游戏3个半小时的过程中一直未出现健康时长提醒信息。同时,使用12岁以下未成年人身份登录进行测试时,仅有10款在当日游戏时长累计1小时后出现了强制退出。使用13岁至17岁未成年人身份登录测试时,也只有10款出现了健康时长提醒和累计游戏时长达两小时强制退出。
正因为如此,《规定》进一步要求建立用户账号信用管理制度,要求网络信息内容服务平台根据用户账号的信用情况提供相应的服务。
北京师范大学法学院网络与智慧社会法治研究中心主任刘德良认为,网络平台应用算法技术推荐延伸内容的算法,不能直接照搬于青少年专属内容领域。“推荐给青少年使用的功能和浏览的内容,应该与科技发展同步,平台要专门设计青少年专属内容的算法,投入更多的人力物力,付出更大的运营管理成本,营造更适合青少年健康成长的清朗的网络空间。”
在刘德良看来,关键是要找到未成年人网络保护问题的根源,对症下药。未成年人涉及的网络保护领域有游戏、视频等领域,其中游戏是未成年人网络保护的主要领域。从内容来说,游戏领域涉及暴力、色情等信息;从上线时间来说,游戏容易让人沉迷于网络。因此,需要在内容及上线时间两方面进行必要的约束。