标题:用ChatGPT写新闻?别急!先把这几个问题想清楚!
作者:
日期:2023-02-10 15:33:18
内容:

ChatGPT大热,部分媒体的记者已经尝试用ChatGPT写新闻稿。

同此前的写稿机器人一样,ChatGPT应用于特定领域新闻报道写作只是时间问题。我们有必要思考:

这项新技术的使用可能会有哪些内容安全问题?又会涉及哪些著作权问题?如何提前防范和规避?

2月9日,传媒茶话会对话中国政法大学传播法研究中心副主任朱巍,中国传媒大学信息科学与技术学部专职副学部长、互联网信息研究院副院长曹三省,西南政法大学新闻传播学院教授陈笑春,每日经济新闻相关技术负责人,杭州城市大脑有限公司CEO申永生,封面科技数据研究部总监王子健,中闻律师事务所合伙人赵虎,从法律和技术层面进行了探讨。

01

ChatGPT的报道安全可靠吗?

“10秒内提炼15页财报要点,还能横向对比两家公司业绩!”

ChatGPT的高效令人惊艳,如果运用在新闻稿件写作中,势必提高报道的时效性。但也有不少媒体人开始思考:ChatGPT生产的新闻报道,是否安全可靠?

这种想法并不是杞人忧天。基于语料库、大数据的ChatGPT无法核实新闻五要素的真实性,高速度、高产能也容易被网络中的虚假信息误导。

“内容自动生成带来的挑战是现有媒体从没有正面面对过的局面。”杭州城市大脑有限公司CEO申永生指出了问题的严重性。

首先,摆在我们面前的就是数据安全问题。

每日经济新闻相关技术负责人提到ChatGPT的服务器在海外,涉及数据安全问题。特别是国内涉及政府部门的内容和数据,涉及核心技术企业的信息不宜传出。媒体若要使用ChatGPT,需要严格把好数据安全关。

申永生分析认为,在用户和ChatGPT交互的过程中,ChatGPT也能够获取大量用户或者业务相关数据,这些数据一旦涉及关键,可能就有泄露风险。

其次是数据来源问题。

“ChatGPT在用户海量信息‘投喂’的过程中不断自主学习进化,内容安全风险恰恰存在‘投喂’这个过程。”西南政法大学新闻传播学院教授陈笑春提出,用户可能随手将网上看到的一些精彩文字、视频片段上传到平台,却并不能确保这些内容的准确性以及这种行为是否侵犯他人权利。

再次是数据产权的归属问题。

申永生也提出,ChatGPT通过网络、交互获取的数据和知识会转化为自己的知识图谱或者存入知识库,背后也上传至相应运营公司数据平台。其数据获取途径和获取方式是否合法合规,有待进一步研究和界定。

最后是导向问题。

“ChatGPT学习和生成内容的主题、知识、导向可能会有被操纵的风险。一旦被运营者、境外势力等操纵,舆论隐患将会很大,造成社会面风险,这方面更要加以重视。”申永生提示道。

中国传媒大学信息科学与技术学部专职副学部长、互联网信息研究院副院长曹三省同样做出风险提示:媒体在使用ChatGPT时要注意规避时政、意识形态等领域的内容。

“ChatGPT本质是算法生成内容的工具。它生产的内容是基于全网的数据和算法分析处理所得到的,与我国主流媒体的话语体系存在一些不兼容之处。”曹三省说道。

对于ChatGPT的内容安全问题,封面新闻数据研究部总监王子健建议以AI辅助创作,并且严格执行三审三校流程。

传媒茶话会了解到,封面新闻研发的写稿机器人小封每月写稿量达到3000篇,并且没有出现内容安全问题。

王子健介绍了封面新闻确保机器人创作稿件的真实性和准确性,以及导向上的相关做法。

“小封能够做好内容把控的根本原因在于封面新闻强调主流媒体算法的可控性,因此会在模型训练的时候就加入安全方面的规则,以避免出现内容安全问题。”

具体来说,封面新闻给小封机器人加了三道保险阀:一是流程保障,小封写作的内容只有关于客观事实的文章会直接发布,比如赛事比分、地震速报等,其他内容都要经过封面新闻的编审流程;二是审核保障,封面新闻应用自主研发的审核云系统,小封生成的内容在发布前接受新闻事实、风险等方面的检验,以保障内容安全;三是历史巡检,封面依托自身智能审核能力对已经公开发布的内容持续进行巡检,多加一道防护墙。

02

ChatGPT生产的内容有没有著作权?归谁?

ChatGPT生产出来的内容有著作权吗?关于这个话题,争议一直都存在。

中国政法大学传播法研究中心副主任朱巍认为,AI本身不创造内容,只是根据指令去完成一个任务。ChatGPT本质是人类的一个工具,是一个AI,它更多的是通过数据喂养,深度学习、模拟人类思维和语言,像人类一样思考写作,但它不能代替人类,也不能产生独创性的作品。

“所以从这个角度讲,ChatGPT生产出来的内容不存在著作权的问题,再加上它使用的内容不是来自一两篇文章,而是成百上千篇不同的文章,想要查证是否侵犯著作权很难。ChatGPT更多涉及的是数据产权的问题,即数据的合理使用范围、使用的边界问题。”朱巍认为,目前ChatGPT使用的数据来自公共领域,具体的数据产权需要根据各国相应的法规去界定。

中闻律师事务所合伙人赵虎提到,如果是系统设定好的,根据系统的设定,计算机程序完成了作品,著作权归计算机程序的权利人。以前大多是这种情况。“但现在发生了变化,ChatGPT这种程序写的作品并非系统事先设定好的,根据现行法律规定,我们只能认为ChatGPT这种人工智能写的原创文章没有著作权人,谁都可以用,不会侵犯他人的版权。”

与几年前AI机器人刚出现时,通过其生产的内容是否拥有著作权存在争议一样,如今对ChatGPT著作权归属也存在争议。

曹三省认为ChatGPT生产内容的著作权是与数据权有深度关联的。这个关联的权利与基础平台和其支撑工具的所属有关,简单说就是算法是谁的、上层资源是谁的,谁就有关联的权利。

“如果以后法律支持AI生成物有著作权,将由谁来享有著作权,是目前争论很激烈的问题。”赵虎表示。

“争议存在于对人工智能生成物主体的认定,有观点将人工智能的使用者视为主体,也有观点认为以人工智能的开发者,即人工智能技术的拥有者为主体,还有将人工智能作品生成中提供数据的素材者也视为主体的观点。”陈笑春解释说,在我国的司法实践中已经有将人工智能的使用者认定为作者的案例。

她进一步表示,“我个人赞同将人工智能的使用者视为作者的观点,一方面是作品有清晰的署名;另外一方面,如果后续发生侵权,那么承担侵权责任的是利用人工智能进行创作的人,包括自然人、法人和其他组织。”

关于ChatGPT可能侵权的问题,曹三省认为这个问题处理原则与网络时代中人类内容生产的基本原则是一致的:ChatGPT在引用数据、资源时如果能证明其来源出处,那就可以规避侵权风险;如果无法证明主体资源的出处,就有可能侵犯著作权。

对此,陈笑春建议平台对其数据库建立一种阻断机制,并且平台对于进入数据库的各种信息有审查义务。

图片来源:花瓣美素

编辑|葛畅


返回列表 网站首页