一、引言
ChatGPT是基于大型语言模型(Large Language Modle, LLm)预训练的新型生成式人工智能,由GPT-3.5/4.0模型提供技术支持,是一种以“对话+创作”为基础的生成式人工智能应用,它是美国人工智能研究实验室OpenAI于2022年11月30日发布研发的聊天机器人程序。
聊天机器人的出现,是人工智能技术发展的一个重要里程碑。ChatGPT的多模态大型语言模型特性使其能够处理更复杂的输入和输出,提供更丰富的内容创作和图像生成能力,有助于深入了解生成式人工智能对新闻生产的影响,也对新闻报道的形式和内容产生变革,新闻业传播生态也将随之发生深刻变革,以ChatGPT为代表的生成式人工智能将激发传播领域的生态级变局,因此本文将结合AIGC(人工智能生产)技术不断进步的背景下,探讨在新闻业领域ChatGPT的发展前景与忧患。
二、新闻业智能化生产的现状
(一)“对话+创作”为基础的生成式人工智能应用助力算法分发
以ChatGPT“对话+创作”为代表的基础的生成式人工智能应用可以在提问者具体问题设置下通过后台搜索引擎根据用户的“个性化”问题去进行“一对一”式的“定制化回答”,实现了个性化定制的算法推荐技术的新突破,提升了用户体验和参与度,为智能化生产带来了新的发展机遇
基于对话+创作的生成式人工智能应用通过与用户的交互,可以根据用户的具体问题和需求,提供个性化定制的回答和解决方案。不仅可以提高用户的满意度和体验,还可以提高算法推荐的准确性和效果。举例来说,像谷歌搜索引擎中的“智能回答”功能就是基于类似的技术,通过对话式交互,根据用户提出的具体问题,提供个性化的搜索结果和回答。这种个性化定制的算法推荐技术已经在搜索引擎、社交媒体等领域得到了广泛应用,取得了显著的效果。此外,根据数据显示,个性化定制的算法推荐技术在提高用户参与度和点击率方面取得了明显的成效。
(三)算法训练元数据模型未经证实易致新闻失实
.ChatGPT的数据来源所运用的算法是一种通过人类反馈和海量公开数据训练出来的语言模型。但是,虽然它似乎言之有理,但无法证明它提供的信息是完全准确的。其一,由于ChatGPT是用2021年前的数据进行的训练,所以它无法提供最新的事实性答案。例如,它说拿破仑战争期间英国皇家海军陆战队军服的颜色是蓝色,但实际上是红色。此外,ChatGPT难以回答表述不够清楚的问题,这也可能导致错误的答案。
在面对一些最新事件或发展时,ChatGPT可能无法提供准确的信息。这样的情况可能导致新闻报道中出现不准确或过时的信息,进而影响公众对事件的理解和判断。例如,有报道指出,ChatGPT在某些情况下给出的答案与事实不符,比如在描述历史事件或特定事实时可能出现错误。这种情况下,如果新闻报道中引用了ChatGPT的信息,就有可能导致新闻失实的问题,影响新闻的客观性和可信度。这意味着如果新闻从业者在采访或撰写报道时依赖ChatGPT提供的信息,就有可能出现信息不清晰或错误的情况,从而影响新闻报道的准确性和客观性。
六、新闻业智能化生产未来图景
(一)人机协作:就地取材,按需调整
新华社“快笔小新”以及字节跳动xioamingbot等机器人新闻生产技术的出现,也对新闻从业者进一步提出更高要求。新闻从业者需了解聊天机器人的基本原理和工作方式,通过学习和掌握新技能和工具,以提高自身的竞争力,例如掌握数据分析和可视化、虚拟现实技术等,掌握聊天机器人的应用场景和优势,寻找与其结合的方式,与新闻从业者自身“共情性交流”、“观点提炼”等机器不可替代的有事有机结合,实现人机协同,生产优质新闻。
举例来说,新华社的“快笔小新”是一款基于人工智能技术的新闻写作机器人,它可以通过自然语言生成技术快速地撰写新闻稿件。这种技术的出现使得新闻报道可以更快速地面世,满足受众的即时需求。另外,字节跳动的xioamingbot则是一款基于对话生成技术的新闻机器人,它可以模拟人类的对话风格,与用户进行交互,提供个性化的新闻推荐和解答。在人机协作的过程中,新闻从业者可以利用聊天机器人的优势,如快速生成新闻稿件、个性化推荐等,与自身的“共情性交流”、“观点提炼”等机器不可替代的能力相结合,实现人机协同,生产优质新闻。这种人机协作的方式将有助于提高新闻生产的效率和质量,满足受众的多样化需求。
综上所述,新闻从业者需要不断学习和掌握新技能和工具,以适应智能化生产技术的发展,实现人机协同,生产优质新闻。这种人机协作的方式将有助于推动新闻业的智能化转型,提高新闻生产的效率和质量,满足受众的多样化需求,是新闻业未来发展的重要方向。
(二)对ChatGPT元数据进行事前“把关”
ChatGPT是大量不同的数据集群训练出来的语言模型,目前其背后仍是“黑盒”结构,即无法确切对其内在的算法逻辑进行分解,所以不能确保使用ChatGPT过程中,其所输出的内容不会产生攻击伤害用户的表述。“如果ChatGPT的回复是错误或虚假信息,会具有极大的误导性,有潜在法律风险。”ChatGPT对于智能化生产技术在新闻业应用中的潜在风险和挑战,因而ChatGPT在分发之前需预先对信息事前“把关”与核查。
同时,聊天机器人如ChatGPT的广泛应用可能导致信息的误导性和不准确性,进而对用户和新闻从业者带来潜在的法律风险和道德责任。例如,如果ChatGPT提供的信息侵犯了用户隐私或侵犯了他人的著作权,就可能引发法律纠纷和道德争议。因此,对ChatGPT元数据进行事前把关和核查显得尤为重要。这意味着在使用ChatGPT等智能化生产技术时,需要对其输出的信息进行严格审查和验证,确保其准确性、合法性和道德性。这可以通过建立专门的审核机制和流程来实现,例如对ChatGPT生成的内容进行人工审核和核实,以及建立法律和道德规范来规范其使用。
综上所述,对ChatGPT元数据进行事前把关和核查是新闻业智能化生产的现状与未来图景中的重要应对策略。这种策略有助于降低智能化生产技术带来的潜在风险和挑战,保障新闻报道的准确性、合法性和道德性,推动新闻业的智能化转型。
八、结语
在新闻业领域,ChatGPT的发展前景非常广阔。它为新闻生产提供了高效的内容生成和个性化定制的可能性,推进了智能内容分发的发展,为用户提供更加人性化、交互式和多样化的新闻体验。同时,ChatGPT也带来了一些挑战和风险,例如在信息事前把关与核查方面存在的难题,以及对新闻生产和传播生态的深刻变革。针对这些挑战和风险,新闻业需要制定相应的应对策略,包括对ChatGPT元数据进行事前把关和核查,以降低潜在的法律风险和道德责任。此外,新闻业还需要积极应对生成式人工智能带来的深刻变革,推动新闻生产和传播生态的智能化转型。
综上所述,ChatGPT的出现为新闻业智能化生产带来了新的前景,同时也提出了新的挑战和风险。新闻业需要充分认识到生成式人工智能的潜力和影响,制定相应的战略和政策,推动新闻生产和传播生态的智能化转型,从而实现新闻业的可持续发展和创新。