人工智能如何助力媒体事实核查

中国出版传媒商报 2024年09月20日

  近日,美国总统候选人卡玛拉·哈里斯(Kamala Harris)和唐纳德·特朗普(Donald Trump)在美国历史上最重要的政治辩论之一中进行了激烈的口头交锋,而媒体的“事实核查员”则紧盯着他们的每一句话。美国有线电视新闻网(CNN)专门设立了“事实第一”可搜索数据库,提醒读者“事实无可替代”,并告知用户,无论是通货膨胀数据、水力压裂技术还是关于移民的夸张言论,都将被一一验证其真实性。这场辩论只是美国大选中受到事实核查员监督的最新内容,老牌媒体品牌如《华盛顿邮报》、英国广播公司(通过其BBC Verify计划)和《纽约时报》都在密切关注候选人的采访、竞选集会和在线声明。

  在“假新闻”和“另类事实”泛滥的当下,错误信息可能会影响选举、制造分裂甚至引发骚乱。因此,让媒体揭露政客及其追随者的模糊言论比以往任何时候都更加重要。

  《国会山报》撰稿人阿瑟·艾森伯格(Arthur Eisenberg)在近期发表的文章中赞扬了实时辩论事实核查的重要性,他写道:“寻求公职的候选人之间的公开辩论可以促进选民获取信息,但其中的错误与误导性断言却可能削弱其教育价值。”他进一步解释,“在候选人辩论中,经常会有不完全准确的说法,在辩论的激烈时刻,候选人偶尔会夸大其词,有人甚至可能故意为之。”

  《对话》杂志的乔纳森·埃斯特(Jonathan Este)则指出,告知公众并非事实核查的唯一功能。“研究证实,知道有人在核查往往会让政客在发表言论时更加谨慎。除去特例之外,许多公众人物在说法被揭穿后会悄悄放弃该说法,甚至发布道歉声明。”

  如今,事实核查员对媒体机构而言至关重要,其受关注程度堪比政治记者。美国有线电视新闻网(CNN)的丹尼尔·戴尔(Daniel Dale)在直播中评估了特朗普和哈里斯的辩论表现。目前问题不在于是否应该仔细监控辩论、演讲和在线声明,而在于如何更高效地做到这一点。研究表明,这正是人工智能可以大显身手的地方。

  机器人助力事实核查

  今年发布的《媒体世界创新报告》(以下简称《创新报告》)探讨了当今影响媒体盈利情况的发展趋势,由创新媒体咨询公司的贾扬特·斯里拉姆(Jayant Sriram)和胡安(Juan Señor)与世界期刊联盟(FIPP)合作撰写,揭示了出版商在事实核查方面如何采用新技术。该报告显示,在伦敦政治经济学院新闻智库POLIS进行的一项全球调查中,近九成的受访者表示,他们已经使用人工智能进行事实核查、校对、趋势分析和生成摘要等任务,而且新技术的应用空间仍相当广阔。

  推动新闻编辑室迈向人工智能时代的工具中,就包括杜克大学记者实验室的FactStream。这是一个自动化的事实核查系统,它能通过对比现场演讲、辩论和公共活动中的言论与之前经过事实核查的声明,来识别其中的虚假陈述,并对其准确性提供即时反馈。

  此外,Newtral的ClaimHunter平台同样表现优秀,可以收听并转录音频内容,检测需要事实核查的陈述,并自动识别演讲、采访或其他音频源中的声明,从而实现高效的事实核查。Newtral还开发了一款自动事实核查工具,该工具使用自然语言处理(NLP)和机器学习技术来识别潜在的虚假或误导性信息,并提高事实核查过程的效率和准确性。

  路透社的新闻追踪器(News Tracer)利用机器学习算法快速识别突发新闻并验证其可信度。它通过筛选大量数据、社交媒体帖子和目击者报告,为记者提供可靠且实时的新闻更新。

  英国著名的事实核查组织Full fact开发了一种人工智能工具,用于在英国大选期间打击假新闻。该技术始于2019年,通过筛选大量数据来帮助识别公共辩论中普遍存在的虚假信息,赢得了包括南非、尼日利亚和澳大利亚事实核查员在内众多用户的关注。该工具还跟踪虚假信息在网络及公众人物中的重复传播,凸显了打击快速传播的虚假信息的挑战。

  Full Fact伦敦的项目经理凯蒂·威尔金森(Mevan Babakar)在《创新报告》中表示:“这犹如试图建立一个免疫系统。随着更多错误信息流向世界,我们缺乏的是反击手段。”他表示,该AI工具减轻了事实核查人员监控和识别声明的负担,使他们能够专注于分析背景、咨询专家和传达他们的发现。“我们的工作远不止于事实核查,更在于积极与政治家、议员等权威人士沟通,以便在他们犯错时纠正记录。”她强调:“该工具会标记那些重复的虚假信息,使我们了解虚假信息的传播方式、谁在放大它以及它是如何变化的,进而采取行动改变虚假信息泛滥的生态系统。”

  双刃剑效应:人工智能的利与弊

  尽管人工智能确实为错误信息的甄别提供了一种解决方案,但它本身也是问题的一部分。当涉及到不良内容时,新技术既是盾牌又是利剑,既是“纵火犯”又是“消防员”。

  毕竟,人工智能和“深度伪造”的出现使打击错误信息的斗争变得更加复杂。人们对人工智能的性别偏见和大型语言模型的不准确性仍然存在担忧,牛津大学互联网研究所的顶尖人工智能研究人员警告说,由于所谓的人工智能“幻觉”(不真实的回应),大语言模型(LLM)对科学构成了直接威胁,应该加以限制以保护科学真理。

  然而,瑕不掩瑜。随着大型出版商与技术平台达成协议,并找到创新方法来改进其工作流程,以及通过新技术接触和吸引受众,人工智能已经逐步融入主流。

  媒体领导者正积极探索人工智能的应用之道,俄勒冈大学新闻学院的达米安·拉德克利夫(Damian Radcliffe)和卡罗琳·S·钱伯斯教授(Carolyn S. Chambers)在《创新报告》中强调了制定恰当人工智能战略的重要性。“媒体领导者应该避免冲动决策。即便人工智能备受关注,也不应该在没有明确战略的情况下急于采用新技术。”他们建议,应制定战略计划,并明确人工智能如何助力实现长期目标和成功指标。此外,还要成立特别工作组,评估人工智能的风险和收益,从过去快速采用人工智能的错误中吸取教训。

  同时,路透社新闻研究所也发出警告,虽然生成式人工智能已经被用于辅助事实核查人员,但事实证明,它对小语种和一些国家却用处不大。

  据该研究所称,小众市场或小语种市场的新闻编辑室普遍对人工智能的准确性持怀疑态度。“我们认为,对各国微妙之处的理解将有助于我们开发更具针对性的工具,以解决错误信息和虚假信息的问题。”加纳新闻事实核查和验证平台GhanaFact的创始人兼总编辑拉比乌·阿尔哈桑(Rabiu Alhassan)告诉路透社新闻研究所。“从当前人工智能的部署方式来看,我们认为它在制作内容或提供事实核查时,对预期细微差别的处理尚显不足。这些局限性源于机器学习工具的构建方式。”(管若潼)