先锋观察 ChatGPT来了专家觉得对新闻出版业将带来这些影响

先锋观察 ChatGPT来了专家觉得对新闻出版业将带来这些影响

发布时间:2024-02-03 13:38:34 来源:硅pu材料

产品详情

  美国人工智能公司OpenAI的大语言模型ChatGPT在推出约两个月后达到月活跃用户1亿,成为历史上增长最快的消费者应用程序。相关专家预计,ChatGPT不仅是新一代聊天机器人的突破,也将给信息产业带来非常大变革,但由此带来的技术滥用、舆论安全等风险亦不容忽视。

  输入问题,得到回答。人类与机器的对话并不是什么新鲜形式,但随着和市面上现有的语音助手相比功能更为强大、灵活,以及能处理更复杂问题的ChatGPT横空出世并在全球走红,人工智能的发展将为新闻出版行业带来更多的可能性与风险性。那么,ChatGPT究竟是什么?该如何看呢?ChatGPT掀起的技术狂潮将给新闻出版业带来哪些改变和影响呢?

  2月15日,在中国新闻出版传媒集团主办的《高低音会客厅》访谈节目中,天津大学新媒体与传播学院院长陆小华、中国新闻出版研究院原副院长张立、中国科学院自动化研究所人工智能伦理与治理中心主任曾毅三人从传媒、新闻出版、人工智能科学等不同角度进行观察和思考,讲述他们眼中ChatGPT对新闻出版业的影响和改变。

  《中国新闻出版广电报》:近来ChatGPT是全世界最热的话题之一,其在各大中外媒体平台掀起了一阵狂热之风,自开放注册以来,仅2个多月就实现了注册用户数量破亿,日峰值也达到数亿级别。那么,如此火热的ChatGPT到底是“何方神圣”?为何突然大火?

  陆小华:我们今天不能把ChatGPT简单看作是聊天机器人,因为这样就会把它和过去“小爱”“小度”之类的产品一样理解。在我看来,以往聊天机器人的答案多数是预设的,而ChatGPT最重要的特征和不同就是它能够智能生成内容。同时与搜索引擎相比,ChatGPT是依据对用户问题的理解,依据已掌握的数据和资料生成一段内容,并在和用户的对话过程中联系上下文。因此,如果把ChatGPT视为一种智能生产内容的互联网应用可能更容易理解。

  不过,我更愿用“智能内容生成”来定义它,因为它不单单是一个应用简单地生产内容,而是以智能方式实现内容的生成。可以说,网络技术的新周期正在到来,而这个新周期对我们新闻传播领域的人们来说,可能会使我们所习惯的内容生产方式和传播方式都发生巨大变化。因此,从这个意义上说,我觉得人们习惯性地称它为聊天机器人是把它看小了。这种智能内容生成技术催生了智能内容生成产品,形成对ChatGPT等智能生成技术、产品强烈关注的现象。我们应把它看作是一种具有很大潜力、变革力、推动力的智能内容生成产品、智能内容生成技术群。

  曾毅:大家可能已看到了很多关于ChatGPT的介绍和评论,但我还是想从科学的角度说一些我对它的客观评价。ChatGPT在科学技术方面是一个比较成功的语言工程的进展,但我不能说它是人工智能科学方面的进展。在我看来,它是AI在先进的技术集成方面和结合大规模数据和用户反馈等几个维度非常成功的一个应用案例。它看上去非常智能,但它的本质是基于自然语言工程,是一个工程化的创新,它在使用者真实的体验上达到了前所未有的高度,但这并不意味着它在科学上有极大的进展。它确实具有自动生成技术,但它是不是跟人类的智能本质有关呢?我的答案是否定的。实际上,它跟人类智能在计算系统当中的应用没有过大的关系,然而,它确实是一个成功的工程技术应用,不仅成功地提升了使用者真实的体验,也带来很好的广告效应,而且打开了无限的信息自动化处理的可能。

  《中国新闻出版广电报》:作为新闻出版行业从业者,我们如何尽量客观地衡量ChatGPT在新闻出版工作中带来的利弊呢?作为从业者中的一员,我们该如何应对呢?

  张立:我觉得它对文案型的工作者是有影响的,甚至说对文案型的专家肯定有影响,因为我们的数据量和运算速度与ChatGPT不在一个量级。但纵观新闻出版业的发展,我们面对了很多次革命,比如平面媒体的书报刊,面临过广电的无线通信、互联网和现在自媒体的冲击,直至现在书报刊任旧存在。ChatGPT面世后,从记者、编辑本来的职责和使命上来说,ChatGPT没有任何办法取代新闻从业者的脚力、眼力、脑力和笔力。因此,我觉得,面对ChatGPT面世,应该思考怎样让我们的新闻更好落地,回归到我们新闻的本质属性是很重要的一方面。

  陆小华:以趋势与格局眼光来看,新闻出版工作者要深刻认识到智能内容生成技术一旦更广泛应用,比如像ChatGPT这样的智能内容生成产品更多样化地出现,最大的挑战就是会影响人们的知识获取方式、认知形成,某些特定的程度替代人们的信息源自,在某些特定的程度上会影响人们对所看到内容真实性、准确性、权威性的辨别。从具体工作层面看,使用ChatGPT之类智能内容生成产品以及智能内容生成技术与搜索引擎结合的产生,可能会一步步取代新闻出版工作中那些程序性、重复性、资料性、搜寻性、简单归纳性的工作。比如,40多年前,大学老师会教学生做学问要多做卡片,用卡片积累知识、积累资料。试问,今天的研究机构、今天的高校还有哪位学者在做卡片?为什么没有呢?因为有了搜索引擎。前瞻地看,ChatGPT这样的智能内容生成产品能帮助扩展思维空间。如果我们以创造性思维思考一些问题,去问ChatGPT等智能内容生成产品,不断变换问题,它会给出不同答案。这是不是能让我们形成更多创意,帮助从多个角度看待问题,拓展创意、策划、形成内容产品的空间?我想,会的。所以,从积极方面来看,ChatGPT等智能内容生成产品一定有帮助。

  但客观地说,它也需要新闻出版工作者有更高的智能内容生成素养,类似人们常说的网络素养。所谓智能内容生成素养,就是当把它作为一个提升效率、提升生产力的工具时,会不会得当地用它,能不能得当地辨别智能生成内容哪些可信、哪些可取。另外,我觉得很重要的是,我们肯定要预见并采取有力的手段去规制智能内容生成可能带来的负面影响。所以,今天我们一定要做到“小雨绸缪”。抓紧去评估它的影响,提高利用它的能力;评估它可能会产生的危险,然后去研究规制它的方法,约束它的使用行为和发展趋势,减轻它可能带来的危害,从而更有效地利用好这个工具,适应“人和AI共生”。

  曾毅:新闻工作者的价值是把真相、把真正消化理解后的内容传递给受众,而这是不能被人工智能代替的,至少是人工智能目前的短板,因为它做不到“理解”。ChatGPT的智能其实就是从大规模的数据到我们预期的想要的输出,然后中间用了一种数学优化的方法,从输入你和到我想要的这种输出,然后得到一个数学优化的算法,但这跟我们真正说产生“理解”是两回事。因此,就新闻工作者而言,把对于世界的理解带给社会,把理解的真相带给社会,把认为正确的价值观带给社会是ChatGPT所不能够做到的。

  同时,ChatGPT是一个基于大规模数据统计生成模型,所以它所讲的东西是具有统计显著性的,而统计显著性就会使它不想要多元化,也不欣赏多元化,所以我觉得ChatGPT类的人工智能生成应用,应该将数据收集的工作交给机器来做,让新闻工作者回到最大化发挥自身价值方面。尽管我觉得我们确实要充分的利用这个工具,但目前我还没看到人工智能很快地跨越从处理到理解的可能性。因此,作为一个人工智能的科技工作人员,人工智能写的内容一篇我都不会打开看,因为基于现在的这个技术,我不知道我在里面能找到什么。

  《中国新闻出版广电报》:我们看了很多对ChatGPT适用结果的分享,有各种刁钻古怪的问题,有各种看起来没有逻辑或者很有逻辑的问题,但没有一个人分享ChatGPT向用户提出问题的。请问各位是怎么样看待这种情况的?

  陆小华:能提出问题就是人类智能的最重要体现。现在大家常讲之所以人的智能是机器智能所代替不了的,是因为人具有共情心、同理心,是有情感的。更重要的是,人类有理性,可以提出问题。衡量人工智能的发展水平,我觉得可以看它能不能得当地提出问题,就像我们衡量一个记者好不好,主要看善于不善于提出有价值的问题。沿着问题这条线索观察、分析、思考,有助于我们对“人和AI共生”有更深刻的理解。梳理一下关于ChatGPT的信息会发现它和以往其他模型最大的不同,ChatGPT的训练方式之一是利用人类所提的问题进行训练,人们不断提问题,就会使它更“聪明”。这样的训练方式也使它比过去的互联网应用更聪明。随着ChatGPT之类智能内容生成产品所依托的大模型参数量、数据量变得更大,这种基于人类反馈进行强化学习的训练方法也会发展,一定会变得更加优化,或者方法本身更为“智能”。我个人的感觉是,自然语言“处理”一定会走向自然语言“理解”。研究大模型、研究智能内容生成产品的科技工作人员,会从研究算法优化、数据集优化、模型训练优化,转向投入更多精力与智慧去研究让智能内容生成产品如何像人类那样提问题,研究怎么样让智能内容生成产品学会向人学习。

  曾毅:目前的人工智能产生的方式是首先由人来表达自己想要的内容和某一堆数据有关,然后要求模型去学习这一些数据,再由人去告诉它这样一个世界就是由这一些数据来描述的,从而生成一个提问者想要的答案。但千万别告诉人工智能数据是不完备的,还有例外的情况。比如我们告诉一个小朋友说某个字就要这么写,小朋友经常会问为什么不能那样写,这个不断产生问题的原因就在于理解,因为有不理解才会有不断发问的过程。

  但特别遗憾的是,现在没有一点一个AI可以不停地向人们发问,或许我们今天说完明天就可能有,但那一些问题都是假的,不是真正有动机地去想一个问题。而为什么它不会想问题就回到了关键——没有理解就不会有问题。只有存在不理解的地方,才会产生发问的动机。对于未来人工智能会不会真的会产生理解,这个答案是肯定的,我们现在做的事情就希望它能做到真正理解,而不是停留在处理。作为现象级的产品,我觉得ChatGPT对于产业而言是一件好事,它确实打开了应用空间的很大的可能性,随着人工智能信息技术的包围,变革还会加快。

  《中国新闻出版广电报》:有人说,编辑、记者未来将是较容易被人工智能所替代的工作。随着ChatGPT的问世,似乎这样的趋势有所凸显,请问各位专家是怎么样看待这样的一个问题的?

  曾毅:如果我们的传媒工作者停止去生成有意义的报道,比如说对一个事件的认识并提出观点,那么ChatGPT将如何工作呢?以前是ChatGPT向人类生产的作品学习,接着进行工作,而如果ChatGPT在未来真的部分代替记者写稿,它会有一个不能逾越的阶段,就是我们新闻工作者去做的人工标注。为什么ChatGPT现在回答问题回答得好?是因为有大量的人工标注在后面告诉它如何作答。它回答的任何一段在整个网络上都找不到一个一模一样的内容,它是一个生成模型。它可以产生100多个不同版本的答案,但为什么ChatGPT会给用户展示第一个让用户惊艳的答案呢?那是因为有大量的人工标注。所以在我们这样的领域最有名的一句话叫做有多少人工就有多少智能。因此,所有现在的人工智能真正依赖的都是其背后大规模的人工标注和人类数据的贡献,然后再基于训练给出回答。假设未来在网络上没有人类产生的新闻报道了,只有ChatGPT生成新闻报道,没有新闻工作者给它贡献,告诉它不能这样写而应该那样写,那么ChatGPT向谁去学?

  事实上,现在的AI是依赖与人类的交互,它有个关键技术叫做基于人类反馈的强化学习。所以,如果想搞垮这个系统太容易了,只要有足够多的人告诉ChatGPT给出的答案不对,那么ChatGPT这个系统很快就不能工作了。因此,无论将它叫做语言工程的创新,还是看作智能信息处理的创新,人类在其中发挥的作用暂时不可替代。

  陆小华:对这个问题,我觉得更应该讨论的是,在新闻出版行业内什么工作内容是智能内容生成技术和产品所永远不能代替的。新闻工作者拥有使命感、价值观、情感和同理心,很重要的是,我们还拥有对未来的想象能力,对真相的探寻能力。从实质来看,智能内容生成是一种对人类已有知识、发现、认知等的“再现”,仅仅是在依据算法模型水平进行信息提取基础上的“再现”,当然,“再现”水平还不够高,显然不具有“专才”水平,更重要的差异是机器还不能想象未来、预测未来。想象未来是人的主体意识的重要组成部分。出现ChatGPT这样的效率工具,实际上特别提示新闻出版工作者们,想象力、创造力对于未知的探索、对于真知的探索、对于真相的探索是多么重要。

  新闻出版的发展历史证明,每一次新的媒介基本技术出现就会出现新一代传播技术。印刷术、无线电广播技术、电视技术、互联网等技术的出现都带来了新的媒体形态和传播形态。今天的新闻工作者很难想象,20多年前能不能用电子邮件采访会是一个需要新闻机构界定的职业伦理问题。今天还会有人质疑可不能够最终靠邮件采访提问吗?不会有。人们已经习惯了用邮件、社交工具在线提问是正常采访方式。那么,进入“人和AI共生”时代,人们为何会不愿意把一些可替代事项交给可提升生产力和工作效率的工具呢?新闻出版工作者作为专业技术人员,不仅不惧怕ChatGPT等智能内容生成模型,因为拥有专业辨识能力,而且还可通过这样的工具节约时机和精力,把更多时间和精力用于辨识、用于想象、用于创造性工作。

上一篇:“身怀”67项专利“绝技”!篮球架界“山东一哥”这样炼成

下一篇:专业的师资和场所——温二职专暑期体育练习来啦!

相关产品推荐

微信1

微信客服1

微信2

微信客服2