【摘要】目前,人工智能技术已经渗透到了新闻传播活动的各个方面,同时也存在着一定的隐患风险,一旦触及道德底线,就会引发一些传播伦理失范问题。为了解决这些问题,需要通过智能技术与人的有机结合,实现新闻生产效率的最大化,同时应提升新闻机构的责任意识,加大公众监督力度;加强技术革新,从源头加强信息过滤;健全法律法规,促进人工智能良性发展。
【关键词】人工智能 新闻传播 伦理失范
【中图分类号】G23 【文献标识码】A
目前,媒体朝着“技术+内容”的方向发展,人工智能技术已经渗透到了新闻传播活动的各个方面,能够对信息数据进行采集、加工、自动写稿、编辑分发,如:新华社机器新闻生产系统“快笔小新”、腾讯财经的“Dream Writer”等写稿机器人。但是在传媒领域中,由于人工智能技术不够完善、触及传播伦理底线、算法设计不透明、法律体系不健全、市场监管不到位等因素的影响,人工智能技术引发了一些传播伦理失范问题。如何解决人工智能技术所引发的伦理失范成了传媒领域面临的重要问题。
人工智能技术引发的新闻传播伦理失范现象
运用人工智能技术进行新闻传播,容易造成内容失真,违背新闻报道基本要求。由于人工智能技术在新闻传播领域中的应用还不成熟,技术的客观性可能使新闻缺乏人文关怀,导致伦理失范被放大。并且基于广泛数据挖掘的人工智能技术还会造成媒体暴力、新闻失实等现象,增加公民隐私权、著作权受侵犯的风险,从而形成了传播的二次失范和次生失范。写稿机器人自动写稿可能会背离新闻的全面性,造成新闻失实,缺乏现场的感官体验。此外,写稿机器人过分注重刊播效果,不加人工干预,容易使真正重要的新闻被边缘化,容易导致新闻失衡,只单纯地迎合受众,使大众媒体的公共服务职能受到严重影响,损害了传统的新闻价值标准。
运用人工智能技术进行新闻传播,缺失舆论监督功能。新闻媒体具有舆论监督的重要作用,而与人类记者相比,写稿机器人只是机械地进行写作,没有大局意识,不具备舆论监督的能力。机器人无法对报道的时间、内容和效果等进行判断,也不擅长发表具有引领作用的深刻见解,从而削弱了新闻媒体的监督功能,降低了公众对媒体的信任度。同时,随着人工智能技术在新闻传播领域的渗透,无论是智能热点搜集、新闻写作还是智能推荐,信息采集的范围将不断扩展,方式将更加隐蔽。这极有可能导致源数据被披露,从而导致公民的著作权无法受到保护。
运用人工智能技术进行新闻传播,容易导致新闻同质化现象,传播效果不佳。人工智能时代,智能分发平台是基于受众的个人画像和阅读行为,将内容推送的权力由人类编辑转化为智能算法,以不同的形式,根据推测出的受众阅读偏好,将受众认同和想了解的信息进行推送。智能新闻生产、分发模式是以挖掘用户喜好为导向,给受众带来了许多同类信息,新闻同质化现象严重,言论单一,导致受众的知识素养和新闻品位下降。容易造成受众沉浸在智能分发平台为他们编制的“信息茧房”中,使受众的信息接触面越来越窄。一旦智能新闻分发平台陷入“雷同之海”,长期控制新闻生产和分发模式,就会违背媒体需要客观中立、传递不同声音的理念,导致公众对社会公共事件的忽视。
通过智能技术与人的有机结合,实现新闻生产效率的最大化;提升新闻机构的责任意识,加大公众监督力度
在简单的消息写作领域,人工智能技术能够充分发挥其应有的作用,会部分取代人类记者。一方面,人工智能技术的个性化推荐能够充分实现新闻生产效率的最大化,提升受众获取信息的效率;另一方面,写稿机器人能够将新闻工作者从单调乏味的基础工作中解放出来,能够有效缓解记者、编辑的工作压力,赋予他们更多的时间和精力去挖掘有深度、有反思性的的报道。但是在新闻传播中,机器人只是一种辅助工具,还需要新闻工作者来弥补其存在的诸多弊端。如:新闻工作者擅长对深度和逻辑的宏观把控,能够弥补人工智能不能理解新闻事件背后的信息和因果关系的缺陷;新闻工作者所具有的人文关怀也能够弥补人工智能不能产生“有温度”新闻的缺陷,能够很好地把握新闻传播伦理的界限。因此,面对信息爆炸和人工智能快速发展的趋势,通过记者的深入调查、深度思考,利用智能算法,分析数据、发现热点事件和重大事件来完善新闻报道,并由智能推荐将信息有计划性地送达用户手中,将人工智能技术与新闻工作者有机的结合在一起。同时,新闻记者要充分发挥人的主体地位,增强对人工智能技术的运用与把控,提升深度分析和深入调查的能力,促使未来新闻业向更高效、智能的方向发展,实现“人机共生”。
新闻机构掌握着众多的人工智能成果、技术和手段,为了维护社会的和谐发展,在使用人工智能的过程中,传媒机构必须要承担起相应的责任,提升责任意识,增强人工智能技术的透明度。对于公众来说,智能算法可能难以理解,因此,为了消除公众对人工智能技术的过分信任或完全抵制,新闻机构有必要明确告知受众机器人运行中可能带有的偏见和所犯的错误,让智能新闻以真实可感的形象走到大众中来。人类是智能新闻的“元作者”,人类设计和编写了智能算法,因此,对于源数据的版权和准确性来说,人要负起主要的责任,除了要增强智能新闻的透明度,还要明确机器人犯了错由谁来负责,明确智能新闻的问责机制。为了避免人工智能技术所导致的传播伦理失范问题,要做到人机责任捆绑,为每一则智能新闻分配责任人,在机器人客观公正的基础上,由责任人专业把控,做好新闻的审核和检验。
加强技术革新,从源头加强信息过滤;健全法律法规,促进人工智能良性发展
目前,在传播领域中,还需要通过加强技术革新,用技术优化来完善触及传播伦理的部分技术缺陷,从而解决人工智能技术所导致的传播伦理失范问题。首先,要使技术应用与内容选择保持平衡关系,规范技术的适用范围和使用标准;其次,要从源头上对新闻进行过滤,通过严密的算法,以技术发展加强机器人对新闻数据质量的判断。并且为了真正做到“有方法可依,有数据可查”,由机器人生产的新闻应明确标注数据来源、内容的生成方式,从源头上避免虚假新闻的产生;另外,为了保证源数据的真实可用,新闻从业者应充当“把关人”的角色,在技术未完全成熟前,对数据管理和程序进行验证。同时,要提升智能算法的运算程序,减轻智能分发所造成的“信息茧房”问题。并且为了避免用户陷入“信息孤岛”的困境,还要结合社会重大事件、用户圈层,基于受众画像、行为习惯描绘受众显性需求,通过技术手段,全方位改善个性化推送的内容和机制。
目前,在新闻传播领域中,人工智能技术相关的法律法规还不够健全,为了最大限度地防止人工智能对人类社会产生的威胁,需要建立强有力的法律法规和管理制度,更好实现人工智能技术对人类社会的价值。首先,要使人工智能技术和产品的各方面做到有法可依,完善对数据使用中侵犯隐私权的处罚,明确可抓取数据的范围和边界,从立法层面加强对公众隐私的保护,促进人工智能良性发展。其次,在人工智能监督过程中,有关部门担负着主导职能,因此,为了全方位监督人工智能技术,应该明确人工智能的发展方向和发展原则等。最后,公众是智能新闻的受众和潜在侵权对象,在社会监督中,公众的积极监督和举报具有制约的作用,能够实现法规政策和监管力量双管齐下的目的。
(作者为新乡学院新闻传播学院副教授)
【参考文献】
①王卉、张瑞静:《人工智能技术在数字出版中的应用现状与发展趋势》,《出版发行研究》,2018年第2期。
责编/谷漩 美编/于珊