互联网和数字生活方式形成新一代年轻群体的认知方式、信息获取途径和社会化行为模式。
在互联网语境下,未成年人作为“ 数字原住民”,受到了新媒体多元开放、无差别信息传播模式的深刻影响,也存在各种有害信息、错误行为和价值观引导的风险之中,亟需引起政府部门、平台媒体和社会各界的重视。本报告以网络直播和短视频为研究对象,初步探讨这两种新兴媒体平台的内容生产、表达方式、技术特点和传播偏向,对未成年人的持续影响。以抖音为例,自2016年上线以来,短短两年间国内和全球月活用户分别达到3亿、5亿,传播内容涉及政务、美食、亲子、旅行等多元议题,既成为未成年人群体自我表达的新空间,也为未成年人高效率接触视觉化形态的内容提供了新途径。当下,未成年人新媒体使用现状和存在问题有哪些?互联网平台为保护未成年人推出了哪些积极措施、面临哪些挑战?怎样共建多方参与的未成年人互联网使用的保护机制?本报告尝试针对这些问题进行简要探讨。
一、 未成年人互联网使用现状及存在的问题
(一)未成年人互联网使用的主要特点
图1 2017年我国互联网用户年龄结构
截至2018年1月,我国网民以10-39岁群体为主,占总体比例高达74.7%(网民年龄结构如图1所示)[1],其中,青少年网民[2]规模达到2.87亿,未成年网民规模为1.34亿,占青少年网民的46.6%。青少年网民的网络普及率为85.3%,在未成年网民中,城市未成年人互联网普及率为92%,农村为80%,均远高于全国整体互联网普及率(50.3%)[3]。青少年尤其是未成年人在互联网使用人数和网络普及率上均处在各年龄段前列。
综合相关研究可见,未成年人互联网使用状况主要有以下特征:
1. 首次接触互联网的年龄进一步提前。调查显示,56.4%的未成年人首次触网年龄在10岁以前。[4]这说明,未成年人最初接触互联网的时间越来越早,具有早龄化趋势,网络和新媒体对未成年人早期价值观的影响越来越大。
2. 每周上网的频次增加,上网时间进一步加长,但每次上网的时间缩短。在2011年未成年人上网频率在“一周左右一次”的比例最高(45.3%),但到2015年大约50%的未成年人每天都会使用互联网;从上网时长看,大约一半的未成年人上网时长在2小时以下,但2-3小时和3小时以上的比例也分别占13.7%和15.4%[5],过度网络依赖成为不可忽视的问题。对于上学时间相对固定,课业负担较重的未成年人而言,上网时间过长会对其学业压力造成较大负担。此外,也有研究指出,未成年人会每天多次上网,而不是集中在某个时间上网。轻量化、节奏更快的短视频,更符合未成年人的上网浏览习惯,也更容易在未成年群体中传播和普及。
3. 手机成为未成年人上网的主要设备。据调查,超过四分之三的未成年人拥有自己的手机[6],83.6%的未成年人使用手机所为其主要的上网工具,明显高于台式电脑(70.4%)和笔记本电脑(28.0%)。[7]这说明,相比其他上网设备,未成年人更容易接触到手机及其应用程序,手机是其接触网络和获取信息的主要渠道。
(二)未成年人互联网使用面临的挑战
未成年人在使用互联网过程中,也面临全年龄段信息无差别传播、不良信息野蛮生长、过度使用导致沉溺等问题。同时,由于未成年人心智尚未成熟,对信息的辨别、筛选和判断能力较弱,这对互联网传播内容的有序监管和未成年人网络信息传播环境的优化提出了挑战。当前,未成年人互联网使用主要面临以下问题:
1. 大部分未成年人在上网时曾接触过不良信息。数据显示,超九成未成年人在上网时遇到过各种各样的不良信息。从不良信息的内容看(图2所示),广告推销和骚扰是未成年人面临的主要困扰,也有1/5的未成年会接触到谣言、黄色图片等影响身心健康的不良信息;从接触渠道看(图3所示),不良信息传播渠道多样,视频、游戏、社交媒体中都会进行传播,对内容监管造成极大压力和困难。
图2 未成年人接触不良信息的内容
图3未成年人接触不良信息的渠道
2. 网络暴力等不良行为对未成年人易造成错误引导。一方面,在网络法规尚不完善、网络行为监测技术尚未成熟的环境下,未成年人在网络交往过程中容易遭遇网络霸凌、网络犯罪等具有侵害性的暴力行为;另一方面,受到网络不良行为的诱导,一小部分未成年网民也会主动发布涉及网络暴力、色情的信息,为清朗网络空间的营造制造污染和噪音。除暴力行为外,乞讨卖艺、危险行为、违反公序良俗等行为无差别地向分辨力、自制力较弱的未成年受众传播,也容易造成他们的盲目模仿,不利于塑造其正确言行。
3. 互联网平台的匿名性一定程度上威胁着未成年群体的人身安全。虽然85.7%的未成年人在网上进行交流的对象是现实生活中认识的人,但也有50.9%的未成年人表示,在网上结交到现实生活中不认识的朋友[8]。互联网平台的匿名性,可能让不法分子趁虚而入,窃取未成年人隐私信息,甚至威胁其人身安全。此外,社交媒体以及部分带有轻度社交属性的视频平台常以“群友见面会”为名组织集会,也存在着无法保障的现实安全问题。
4.部分鱼龙混杂的网络信息不利于未成年人正确价值观的培养。互联网内容的多元和混杂,也带来了信息良莠不齐的问题,如极端自残和扬言自杀、蓄意恶搞、刻意卖腐、伪娘、“渣团”、“蓝鲸死亡游戏”等具有煽动性和恶意取向的行为,易导致未成年人陷入错误的价值导向,也对其心理健康造成影响甚至创伤。
二、互联网平台保护未成年人的积极措施
目前,针对未成年人互联网使用中存在的问题和面临的挑战,游戏、直播、短视频等平台媒体逐步推出保护措施和建立相关制度。其中,视频平台对未成年人的保护措施,可依托算法技术、人工智能和大数据等方法,从内容审核技术投入、正能量产品引导、媒介素养培育等方面切入,逐步实现平台媒体、政府与社会相互配合,共同承担未成年人保护的社会责任。比如,抖音等视频平台逐步通过推出“向日葵保护计划”,采取优质内容和正能量价值引导、算法技术投入以及监管体系建设等手段,通过平台媒体和政府、公安机关相互合作,共建法治化、制度化的未成年人保护机制,为未成年人营造良好的互联网传播环境。
(一)建立 “多重机器过滤”+“人工审核”相结合的内容把关机制
1.通过人工智能技术识别视频图片,实现多重机器过滤
对于短视频可采取抽帧图片过滤技术,对短视频进行抽帧,利用机器算法建立过滤模型,对其中色情低俗进行过滤,优先审核。例如,抖音开发的抽烟模型,对视频内容中涉及未成年人抽烟动作的图像进行捕捉,而相关视频在审核过程中就会被机器过滤,不予通过。
目前,抖音在机器审核过程中使用的模型有:(1)评论审核模型,包括:评论负向模型、评论广告模型、评论低俗模型、评论谩骂模型、评论涉政模型及评论指向高危视频模型等;(2)用户资料模型,包括:用户资料模型、评论广告模型、评论低俗模型、图片消重模型、色情图片模型等;(3)图片OCR识别模型,包括:色情模型、高危库消重、消重模型、搬运模型、OCR文字识别模型、低俗模型、水印模型、录屏模型、抽烟模型、美容院广告模型、赤膊男模型、化妆护肤品模型等。
此外,针对视频文案和投稿主题文案中的敏感词,还进行关键词过滤机制,命中相应关键词的视频纳入专门审核渠道。而但凡涉及境外、疆藏港台等特定区域也会被纳入特别审核渠道。
2.建立“未成年风控模型”,强化前端预防措施
利用大数据,对被勒令下架或者违规视频进行再分析,提取触犯法规和违背道德标准的关键词或图片,建立“未成年风控模型”,从而实现前端预防措施。例如,抖音通过建立了“未成年风控模型”,形成7800多个反例模型,梳理和扩充了视频审核相关敏感词6600余个,确保做好机器识别和前置拦截。同时,将所有违规视频添加到风险模型样本库,通过账号、内容、评论等多个维度识别违规内容,通过人工标注和机器学习,提升模型识别的准确率,命中的视频将进入未成年人专属审核队列,专人从严审核,使得所有过审内容不触法律底线、道德红线、政治高压线.
3.建立针对未成年人的专项审核标准,提高把关门槛
建立针对涉未成年人内容的专项审核标准,从内容源头上增加对成年人的权益保护。例如,抖音对四大类视频内容实行强制下架和审核不通过,包括:违法犯罪和暴力、色情低俗、危险行为、违反公序良俗和未成年错误行为导向等。同时,为了全面净化平台环境,抵制社会不良现象,维护社会公序良俗,抖音建设了公序良俗审核标准库,建立最严格的社区平台审核标准体系,体系中包括的多项不良行为都将在视频审核中被过滤。
4.建立人工审核制度,提高内容审核的精准度
在机器筛选审核的基础上,对未命中任何规则的视频,也采用人工审核的方式,通过人工辨别保障内容安全。抖音平台进一步扩充了审核人员队伍,对于人工智能难以识别或者涉及领导人、时政等重要视频内容,进行人工的内容审核。
5.对于审核违规的视频,实行严格的处罚制度
2016年,国家网信办发布了《未成年人网络保护条例》,在规章制度上对有损未成年人身心健康和群体利益的网络内容予以禁止,同时将立法计划提上日程。平台媒体应在制度上结合网信办的条例,对于审核违规的平台内容将要采取公开、严格的处罚制度,对涉及违法内容的账户予以公示和封禁,并在管理举措上为互联网治理提供经验借鉴。例如, 2018年6月间,抖音累计清理27578条视频,9415个音频,235个挑战,永久封禁33146个账号,对于侵犯未成年人权益的账号,将顶格处罚,永久封禁,涉嫌违法的将报送公安机关处理。
(二)在应用程序功能中实现对未成年人的防护功能
目前,90%以上的未成年人都通过手机接触互联网,平台媒体可以通过程序软件开发,完善手机应用程序上的未成年人识别和防护功能,运用技术对该群体予以更加充分的保护。
1.加强未成年人识别功能
当前绝大多数未成年人,尤其是城市中的未成年人都拥有至少一台智能手机,应用程序可以通过手机登录的账号,识别账号持有者是否为未成年人,在信息推送时通过算法屏蔽对未成年有害或限制级的内容。同时,对于未成年人使用家长手机登录应用时,应用程序可以出台指纹识别或密码识别等功能,通过这些软件技术,加强对用户群体的识别,从而在内容算法推荐上分发和推送更有利于未成年人成长的健康内容。
2.建立风险提示系统
对于参与程度高、受到用户喜爱,同时又存在潜在风险的挑战和动作,比如说某些极限运动、科学小实验等,未成年人在判断能力尚未健全时容易盲目模仿。因而,在内容推送的同时,在视频显著位置予以风险提示,告知参与模仿的用户要量力而行,避免过度模仿,同时要做好防护工作,避免身体受伤。
(三)推出专项计划,从审核、产品、内容构建未成年人保护措施
平台媒体可定期推出一些专项计划,用于倡议和推广未成年人互联网保护机制。通过专项计划推广,不仅让未成年人自身将强对良好上网习惯和健康内容接触的认知,也让家长与平台媒体相互配合、共同参与保护未成年人的网络使用。
例如,抖音在2018年暑假推出了“向日葵计划”,从审核、产品、运营、对外合作等多个维度推进未成年人保护。第一期计划将包括十项措施:审核体系方面,完善并升级未成年人审核模型,组建未成年人专项审核团队,在产品内设置未成年人安全相关的专项举报入口,对侵害未成年人权益的行为顶格处罚,直接封禁设备甚至报送警方。产品引导体系方面,升级未成年人管理工具、开启后无法充值、打赏、提现,未经家长同意的未成年人充值全额返还,“实名验证+人脸识别+人工审核”三道防火墙、杜绝未成年人直播,敏感账户充值消费进行实名验证。内容推荐方面,则将对知识科普类、传统文化类视频进行加权推荐,与权威机构联合开展暑期安全知识挑战。
这十项举措,大体可以归结为三类侧重导向:其一、精准识别:根据数据识别青少年,进行有针对性保护;其二、账户管理:对使用时长、充值消费等进行必要限制;其三、内容导向:针对青少年强化优质内容推荐。互联网平台保护青少年,不仅要从平台出发,更要从社会出发,把青少年的新媒体使用置于复杂社会文化情境中观察,这样就能在“尽责”之外还能有所“ 引领”。这十项举措和三个侧重点值得更多互联网平台媒体借鉴和推广。
(四)构建正能量的传播产品,塑造健康价值观
构建未成年人健康的互联网环境,不能只采取封堵有害信息的途径,还应通过优质内容向未成年人传播正能量的价值导向。在这方面,平台媒体可与政府部门、文化机构和社会组织等进行合作,构建积极性向上、具有人文情怀的内容推广,让未成年人可以接触到更多积极向上的正面信息。
例如,抖音与共青团中央、各大博物馆以及公益组织合作,推出正能量“挑战”,呼吁未成年人通过短视频拍下自己和身边积极向上的行为素材。两会期间,抖音和共青团中央合作“ 奋斗吧,我的青春”,号召网友记录下自己青春路上的奋斗故事,活动上线四天,吸引超过十三万人参与挑战,单条视频最高点赞数339万; 6月20日世界FSHD关爱日,罕见病发展中心(CORD)、你并不孤单FSHD关爱组织,联合抖音和今日头条,共同发起了#橙子微笑挑战#接力公益行动,目前,该挑战赛在抖音上的参与人数已超过17万人,总播放量达13亿,总点赞量突破4500万。
(五)完善媒体产品、学术研究和网络素养提升相结合的长效合作机制
如何在数字化时代引导青少年健康成长,促进移动互联网为青少年全面发展提供更有针对性的服务,是负责任的互联网企业所应该研究的问题。平台媒体可以推进产学研合作机制,通过跨学科研究对未成年人互联网保护提供专业性的学术意见,同时,利用研究成果反哺平台媒体的产品改进,完善产品设计背后的理论逻辑和价值担当。另外,通过平台媒体与中小学开展合作,推动未成年人网络安全和网络教育工作,提高“ 数字原住民”的知识素养和网络素养。
在产品和用户研究相结合方面,抖音成立了青少年网络健康成长研究中心,组建了一支传播学、心理学、社会学、法学、脑与认知科学等跨学科的顾问团。顾问团队将为抖音改进提供专业意见,参与产品中与青少年相关的良好生态建设。同时,将与社会公共力量积极互动,和政府、高校、国内外研究机构共同就青少年数字化素养、移动互联网对青少年的影响、青少年流行文化在移动互联网时代的新发展等课题进行研究,为学术研究和政策制订提供参考。
在产品和网络素养培育结合方面,腾讯推出了数字原住民行动计划(DN.A),通过与政府主管部门、高校、专家和第三方机构等多方联动协作,为未成年人提供网络素养的教育课程和学习工具,倡导以聆听、约定、陪伴等方式,帮助和引导未成年人建立科学健康的上网习惯。通过线上学习工具与线下老师开展教学的方式,让未成年人对网络素养知识有深入认识。
三.互联网环境下未成年人保护的建议对策
1、政府层面:制定法律法规,保护未成年人的网络安全
我国政府以“防止未成年人信息污染、维护未成年人网上安全”为原则,制定了一系列有关信息发布、审查、监管和知识产权保护的法律法规,例如,关于网络活动的一般性立法有《刑法》、《治安管理处罚法》等。此外,还有一些与网络有关的专门规定,主要是有关规范网络信息活动、互联网上网服务营业场所管理以及法律责任方面的法律法规,包括《关于维护互联网安全的决定》 (2000) 、《互联网信息服务管理办法》 (2000) 、《互联网上网服务经营场所管理条例》 (2020) 、《关于网络游戏发展和管理的若干意见》 (2005) 、《关于推动我国动漫产业发展的若干意见》 (2005) 、《网络游戏管理暂行办法》 (2010) 、《关于进一步加强网吧及网络游戏管理工作的通知》 (2007) 等。2013年开始实施的《未成年人保护法》中,也针对未成年人网络保护规定了若干项专门条款。不过,现有法律中的法律责任规定得比较抽象,部分规定在具体实践中难以得到有效执行。因此,下一步应该继续进行完善立法工作,以便更加切实有效的保护好未成年人的网络安全。
2、学校层面:加强理性引导,推动未成年人网络素养教育
总体上看,我国的网络素养教育仍处于起步阶段,大部分教育实践仅仅作为媒介素养课程的一部分来实施,较少有针对网络素养的完整课程。2010年全国两会期间,曾有政协委员建议将网络素养教育纳入义务教育课程,全面培养未成年人与信息时代相符的道德规范和行为能力,建议各级教育行政主管部门对中小学网络课程内容进行调整,在不增加学生负担的前提下,积极推动网络素养教育进学校、进课堂[9]。我们认为,中小学等教育机构的教育职责中,应当包括对于未成年人网络安全与网络能力的培养职责等,以适应互联网社会对于未成年人网络安全与网络运用能力的时代要求,应当建立能够适应网络时代的教育者队伍,对教师加强网络知识培训,协助家长做好网络心理健康教育,对学生进行网络安全与合理使用教育。
3、家庭层面:倡导父母参与,提高家庭在网络素养教育中的作用
未成年人网络安全与网络运用能力的提升,家庭负有不可推卸的培养职责。西方学者就此提出了两种类型的家长监管措施:限制性干预和积极性干预。限制型干预意味着制定互联网利用的规则,包括利用时间和对特定互联网应用的利用和获取的限制。而积极型干预的父母则是在子女身边,观察其行为,与其讨论,并检查其上网页面。在西方国家,64%的受访父母与其子女交流上网问题,34%的父母和子女一起上网,46%的父母经常检查上网页面,38%的父母帮助子女解决上网问题[10]。客观而言,父母是未成年人的第一任导师,父母的网络安全素养与网络能力直接影响未成年人的网络素养。
不过,在中国,由于地区经济发展的差异,一些父母对互联网知识掌握较少。调查显示,不少父母对未成年人上网的态度是相对保守和滞后的,三成以上家长不陪子女上网,与家长沟通状况差和不完整家庭的未成年人上网时长和频率偏高[11]。因此,家长也需积极学习并掌握网络安全知识与提升自身网络运用技能,其监护职责还应包括对未成年子女上网设备进行合理管理,避免未成年人长时间使用网络设施,适当控制未成年人上网时间,引导未成年人合理健康地使用网络,并最终在日常履行监护职责过程中逐步对被监护人产生积极的影响。
4、企业层面:持续完善监管,强化网络平台的约束机制
未成年人合法权利保护需要明确网络平台责任,让平台既有外部的约束监督机制,又有内部约束机制。从外部约束机制来看,国家立法规管网络平台,除了保护个人信息的一般义务外,网络平台还需对未成年人个人信息进行特别保护,例如,未成年人个人信息,网络平台运营者应有主动识别机制,对于明显侵犯未成年人个人信息、隐私和其他权利的内容予以删除,并采取合理技术措施提示未成年人个人信息侵权行为,积极响应未成年人及其监护人的修改、删除请求等。平台应继续优化管理模式,加强内容监管,用优质内容引领正确价值观。从内部约束机制来看,网络公司应建立正确的企业价值观,创造文明、健康的网络环境,不提供可能侵害未成年人权益的产品以及对有关产品、内容给未成年人造成损害提供救济。
综上所述,互联网环境下的未成年人保护,至少需要达成三点“共识”。首先,要超越简单“保护主义”的思维和范畴,倡导合理、规范使用的同时进行积极的资源运用和社会参与,让互联网助力于未成年人的健康成长、公共表达和自我实现。不能把未成年人的网络使用当成“洪水猛兽”,单纯采取限制措施来规避风险,而应通过积极引导和理性管控方式来趋利避害。其次,要倡导“多元共治”的思维和模式。建立全社会共同参与、协同努力的保护机制,厘清政府、家庭、学校、互联网平台等多元主体的责任边界。对未成年人网络使用的保护不能仅局限于单一主体,而应将所有可能与未成年人权益相关的主体都包括进来,赋予政府、学校、家庭、企业等不同的职责。再次,要充分建立“网络+社会”的保护意识,避免单纯从平台、技术或文化某个单一维度来考察未成年人的保护问题。比如,尽管平台采取了各种技术性手段限制未成年人的网络沉迷,但针对农村留守儿童的生活境遇、未成年人央求长辈配合刷屏的客观现实,则需要将未成年人的保护问题置身于更复杂的社会现实中加以考量。由此,才能将“网络”内嵌于“社会”中,把技术创新与复杂的政治、经济、文化等生态因素结合在一起,加以积极引导和有效监管。(转自一本政经微信公众号)
(作者张志安为中山大学传播与设计学院院长、中山大学互联网与治理研究中心主任,聂鑫为中山大学传播与设计学院博士生,林功成为中山大学传播与设计学院副教授、互联网与治理研究中心副研究员)
[1] CNNIC:第41次《中国互联网络发展状况统计年鉴》,2018年1月。[2] 指25岁以下网民[3] CNNIC:《2016年中国青少年上网行为研究报告》,2016年8月。[4] 中国少先队事业发展中心:《第八次中国未成年人互联网运用状况调查报告》,2016年1月。[5] 牛凯,张洁和韩鹏:《论我国未成年人网络保护的加强与改进》,《青少年犯罪问题》,2016年第二期:第36-52页。[6] 中国少先队事业发展中心:《第八次中国未成年人互联网运用状况调查报告》,2016年1月。[7] CNNIC:《2016年中国青少年上网行为研究报告》,2016年8月。[8] 中国少先队事业发展中心:《第八次中国未成年人互联网运用状况调查报告》,2016年1月。[9] 朱宁,《网络社会青少年媒介素养建构研究》,《中国青年研究》,2016年第3期,108-113页。[10] 王平,《国外未成年人互联网安全利用研究:进展与启示》,《情报资料工作》,2018年第1期,89-96页。[11] 吴云才,《关于我国未成年人互联网运用状况调查报告的分析思考》,《中国青年研究》,2012年第10期,36-39页。