bob博鱼体育bob博鱼体育AIGC技术的出现和迭代发展,对新闻传播业的生产变革产生了深刻影响。作为书写时代的产物,深度报道的想象力也随之拓展,AIGC技术在重塑深度报道的边界。在线索挖掘、主题延伸、工具辅助和信息保障等方面,AIGC技术已经能较好地辅助深度报道的采编实践。
随着ChatGPT、Kimi、文心一言等大语言模型的面世,AIGC在辅助记者完成深度报道线索挖掘、文本优化、图片生成等基础性工作方面的潜力逐渐开始展现。
报道线索挖掘。深度报道有着选题复杂、切入角度独特的特点,记者需要从大量的热点事件或数据规律中,寻找符合选题标准和新闻价值判断的新闻线索。凭借大规模数据收集、处理分析的能力,AIGC技术可以迅速完成寻找新闻事件、挖掘个例数据、总结数据规律等工作,辅助记者找到深度报道线索。
原本需要耗费人力监测、判断、研究的热点线索,可以迅速被AIGC识别。通过自然语言处理和机器学习等技术,AIGC可以在人工训练后掌握媒体基本的选题标准和新闻价值判断,从而对热点事件进行判断筛选。路透社开发的新闻追踪器(Reuters Tracer),通过聚类合并、事件汇总、主题分类、新闻价值排名、真实性预测等步骤,可以在海量社交媒体信息中锁定潜在热点事件,将符合标准的新闻信息推送给记者。在布鲁塞尔机场恐袭事件中,这套程序在第一枚炸弹爆炸11分钟后就发现了该新闻,这比路透社传统程序提前了8分钟。
目前新闻追踪器的应用仍需依赖大量的模型训练,对于深度报道而言,AIGC技术的优势更在于大量数据的处理分析,可以应用于挖掘个例数据、总结数据规律,这对于深度报道中的数据驱动型调查报道有较大的帮助。《亚特兰大立宪报》(Atlanta Journal-Constitution)在报道医生与性侵犯案件时,曾尝试从超过100000份的纪律报告中,爬取医生性侵患者后却仍继续执业的个例,最终借助AIGC技术找到了6000份有疑似记录的报告。
深度报道中,调查性报道可能会要求记者从大量的数据中总结相关规律。面对以上需求,记者和编辑部可以结合自身采写经验和实际需求,通过指令设计和训练,开发个性化的AIGC工具。菲律宾调查记者Jaemark Tordecilla借助ChatGPT开发了COA Beat Assistant(COA-BA)智能体,帮助其处理2021年菲律宾教育部审计报告及其他政府部门文件,最终成功得到几个重要的细节信息,曝光了该部门在购买电脑时的不合理开支问题。
报道工具拓展。在机器学习、深度学习的驱动下,AI工具通过自我学习、调整和优化,可以更加精确地辅助进行深度报道内容生产。随着写稿机器人、采访助手、字幕生成等AI应用的不断涌现,深度报道生产的工具也在不断拓展。
AIGC因其采集和处理分析数据、辅助编码、写作代码等能力出色,在数据爬取与处理方面具有潜力,可以辅助完成数据型深度报道。如澎湃新闻在制作报道《一票难求的上影节,近十年怎样走过?》时,使用了ChatGPT来辅助抓取和分析信息,作者与ChatGPT对线个小时,成功获取上影节十年片单数据。但与ChatGPT沟通的过程中,仍需要作者调整指令、手动修正,花费大量时间进行协助。
另外,由于深度报道需要探讨更为深层次的问题,记者往往会采访较多的信源,采访素材容量大,而AIGC技术可以在录音内容等资料整理方面发挥较好的作用。对于较为口语化的内容,AI工具可以迅速进行梳理并转写为正式化语言,如Kimi擅长处理长本文、WPS AI则可在办公软件中直接使用。尽管部分内容可能仍较为粗糙,需要记者进行进一步信息核对,但在大量材料的整理上,AI工具可以大大提高记者工作的整体效率。
在内容生产方面,AIGC依托大型语言模型,已经可以在某些分析性较强而叙事性弱的深度报道领域进行机器写作。AIGC能够按照既有模板,快速生成新闻报道。例如中国科学报的“小柯”以英文论文摘要为基础,可以快速“写出”中文科学新闻底稿;《洛杉矶时报》设立的“震灾新闻bot”,会对所有震级3.0及以上的地震自动撰写新闻快稿。而在文本优化上,AIGC已经可以完成新闻摘要、新闻标题的生成,为深度报道记者提供参考思路,还可以把专业性话题简化到普通受众能够理解的水平。
在图片生成上,依托于文生图大模型,国内已有深度报道媒体将AI生成图片使用于报道中。如北青深一度的报道《“人肉搜索”主犯出狱3年后,决心给自己“开盒”|深度报道》中bob博鱼官网,使用了两张依据采访内容生成的AI图片,其中一位男生出现了六根手指的情形。AI生成的图片仍需依托于已有的新闻文本进行生成,但图片对于新闻真实性的影响仍需警惕。
深度报道作为追求“深度性”的新闻报道,对于主题具有新鲜性、深刻性的要求,AIGC的相关应用也在新闻界引发讨论,使得深度报道的触角得以延伸,机器人叙事的想象力不断拓展。
报道主题延伸。在深度报道主题的创新上,不仅AIGC技术本身成为报道主题,记者与AIGC的互动、人机互动背后产生的社会议题,也成为新的深度报道主题。
具体而言,ChatGPT、Sora等AIGC工具一经出现,就迅速掀起一股AIGC热潮,AIGC技术本身成为深度报道主题。不少媒体记者围绕这些技术,从社会、财经、科技等各个角度切入,介绍分析AIGC技术对日常生活、经济发展的种种影响和带来的风险与问题。除此之外,记者与AIGC的互动也成为了新的报道焦点,为深度报道提供了丰富的素材。
人机互动背后,更多新的社会议题在产生。AIGC带来的技术变革促使不同的产业与AIGC融合,催生了一批新职业,如AI训练师、数据标注员等。然而在新职业背后也带来了一系列社会问题,成为新的深度报道主题。如作为新型数字劳工的数据标注员,他们薪资低廉,缺失福利保障,成为数据背后隐形的被剥削者。而南风窗等媒体还关注了AI训练员背后有关县城女性就业的话题。此外,AI克隆人的情感陪伴也成为新的讨论点,南方周末的报道《困守大山的脑瘫青年,活在克隆人虚拟世界》关注了一名18岁的脑瘫青年,主人公杨晴光在AI克隆人身上寻找情感寄托,报道背后试图讨论虚拟克隆人能否填补残障人士的精神世界空白。
报道信息保障。面对纷繁复杂的社交媒体信源,深度报道的信息保障显得尤为重要。而人工智能技术在这一领域展现出了巨大的潜力。通过自然语言处理和机器学习技术,AI可以快速分析和验证大量的信息bob博鱼官网,帮助记者识别和排除虚假新闻和误导性信息,完成事前新闻审查和事实核查工作。
在新闻审查方面,传统深度报道主要由记者和编辑对新闻真实性进行层层把关,而在人工智能背景下,新闻把关已经向智能算法让渡。AI工具不仅可以帮助记者完成词汇、病句等基础的内容检查工作,还可以完成敏感信息识别等工作。现有AI工具可以依据鉴黄模型、谩骂模型、低俗模型、泛低质模型等技术,初步识别深度报道中的风险信息并生成文本分析,从而完成报道发表前的新闻审查辅助工作。而随着大模型技术的不断发展,AI工具在未来将进一步被用于进行信源交叉验证、观点识别审核等工作。
在事实核查方面,AI工具可根据大数据对社交媒体上的内容及同题报道内容进行检查,提高了新闻事实核查的效率,也增强了信息识别的准确性,可以满足深度报道对于信息准确度的一部分要求。巴西的Serenata de Amor、英国“Full Fack UK”等组织均开发了相关事实核查工具,经过信息识别、检验和比对等步骤,能够进行自动事实核查。Kuznetsova和Elizaveta等人的研究使用AI审计方法,对比分析了ChatGPT和Copilot检测政治信息真实性的能力,结果表明ChatGPT的整体表现更为出色,在英语语境中的准确率为79%。
尽管目前人工智能在数据挖掘、自然语言处理和深度分析等方面表现出色,但具体到深度报道领域,数据可用性和真实性、新闻价值等方面仍然存在问题和挑战。
技术可供性挑战:数据来源与模型开发之困。在深度报道的新闻生产中,数据的使用由来已久。人工智能的介入将改变记者使用和处理数据的惯习,模拟数据、空间信息等虚拟数字都成了可靠的资料,但在搜集数据和建立专属的报道模型上,生成式AI还有很长的探索道路。
在数据收集方面,深度报道所需的公共数据种类多、分布广,目前人工智能还难以完全达到深度报道记者的数据搜集需要。部分公共数据不一定公开,需要通过请求、协商或购买才能获得,在香港等地区,公共数据的获取成本高昂,公司必须注册登记逐一购买。
在对话式人工智能盛行的当下,AI可触及的数据搜集领域也存在着侵犯隐私权和数据伦理的隐忧。部分信息主体或可隐匿于生成式人工智能的背后,通过对话式的人工智能窃取商业机密和个人隐私,如三星员工曾在ChatGPT上传公司的半导体数据以寻求帮助,导致三星遭遇严重的数据泄密问题。
在数据处理方面,记者在深度报道中运用AIGC还受到缺乏标准训练数据集的阻碍。记者搜集到的调查数据和素材通常是非连续的,将这些资料整合在一起是一项大工程。每日人物曾发表文章《这是我们第一篇完全由ChatGPT写作的稿件》,记录了作者使用ChatGPT进行深度报道写作的过程,因ChatGPT无法消化3万字的访谈文本,作者将一份原本只需要记者阅览30分钟的采访素材喂给ChatGPT进行消化理解,整整花费了15个小时。
在商业环境中使用AIGC时,需要解决持续性的商业问题,由于业务的连贯性,在商业分析中投入的AI系统通常可以重复使用。相比之下,深度报道意味着记者面临的议题往往独特而复杂,许多以数据为驱动的深度报道几乎不会重复,个性化定制的人工智能解决方案成本高昂,难以在多篇报道中分摊。此外,新闻机构缺乏充足的资金来发展自己的技术,依赖外部的技术提供商可能会导致新闻机构无法独立选择新闻分发平台。
新闻价值隐忧:真实性冲击和价值判断偏见相互交织。OpenAI在GPT-4技术报告中指出,GPT-4生成的内容不完全可信,会对事实产生“幻觉”(Hallucinations)。NewsGuard在2023年12月有关人工智能如何制造虚假信息的回顾报道中指出,完全由人工智能运作的、充满低可信度信息的平台数量已经从2023年5月的49个暴涨至2023年12月底的614个。
人工智能生成的虚假信息包含事实性虚假和幻觉性虚假两个方面。在事实性虚假层面,任何人工智能在新闻调查中都无法达到100%的准确率,一方面是由于人工智能使用的数据会出现模棱两可的情况,如复杂的跨文档、跨数据库的数据核查工作,目前还没有算法能够确定不同数据库的同一个名字是否指代同一种物品,这意味着人工智能的输出需要更加精细的人工事实核查。如此,人工智能所带来的效率优势也在需要耗费的人工核查成本面前所剩无几。另一方面则在于AIGC本身也会制造错误的新闻信息源。每日人物记者使用ChatGPT进行深度报道写作时,在记者不断施加修改信号的指令之下,ChatGPT开始给报道的主人公凭空编撰疑似出轨的情节。
在幻觉性虚假层面,人工智能辅助深度报道面临的复杂挑战是新闻概念的技术系统化。社会学家斯图亚特·霍尔(Stuart Hall)表示,新闻价值观是现代社会最不透明的意义结构之一。新闻价值包含了复杂的社会和政治语境的光谱,难以通过计算进行编码。现有的新闻写作机器人或以恒定的故事框架设立标准,或是基于前人的决策模式对系统进行训练,如在训练路透社的News Tracer判断事件是否具有新闻价值时,路透社工程师围绕特定事件建立了300个推文集,其中63个被记者认为有新闻价值,在此基础上,工程师让News Tracer学习记者的判断标准。然而,在新闻生产的实践中,根据编程来判断的硬性筛选标准会显得不够灵活、比较武断;若以人类决策作为学习样板来训练系统,人类本身对于报道选择所带有的文化偏见又会潜移默化地渗透到人工智能中,难以达到新闻效率和新闻价值判断的平衡。
算法透明度之殇:技术透明程度与算法责任监督有待提升。AIGC运用在深度报道中,较大的争议在于算法不透明,其对新闻伦理的冲击、对个人隐私的侵犯及对新闻价值的消解不容小觑。算法黑箱的存在有其深刻的社会土壤和现实因素。对于媒体和技术供应商而言,算法披露的成本与预期回报之间存在明显的差距。在商业运营的压力下,媒体往往缺乏主动披露算法信息的动力。如果信息披露的方式处理不当,媒体还可能面临法律诉讼的风险。对于技术供应商而言,公开算法技术可能会削弱其独特的市场竞争优势,进而加剧市场竞争的激烈程度。对于受众而言,算法的过度信息披露可能导致信息过载,增加认知负担,使得他们难以筛选出对自己有价值的信息,最终影响受众的阅读体验和使用感受。
为提升受众对于算法议题的认知度,深度报道领域发展出了算法责任报道(Algorithnmic Accountability Reporting),聚焦因算法黑箱被放大的社会结构性偏见、因算法分发导致的回音室效应、算法决策与社会规范产生冲突等问题,较早的典型报道是2020年《人物》发布的《外卖骑手,困在系统里》。但目前算法责任报道的关注点较多侧重于互联网平台的技术规范,对于算法对个人心理、社会关系乃至于情感领域的人机关系互动较少涉及,算法责任报道的颗粒度和精细度有待提升。