12版:神州风物

无所不能,但对真实性概不负责?

(2023年02月17日) 来源:新华每日电讯
  高跃:ChatGPT生成的内容,面临真实性、准确性以及版权方面的问题。这也给我们带来很多挑战——除了辨别真伪、保护版权,还要能够识别这到底是不是个人的创作,或者能区分出哪部分是AI生成,哪部分是人的创作。
  陈雨强:对于一篇专业性或学术性的文章,署名作者是一定要负责的,而恰恰ChatGPT是不能负责的。学术论文的署名作者,既要对论文做出了“实质性贡献”,又要能承担相关的责任,而这两条ChatGPT都不满足,并且现阶段ChatGPT生成的内容完全达不到“文不加点”、无需加工的程度,而是需要人的修改、润色、校对,最终得由人来署名。那么,人的智力参与达到什么标准才能署名?这就牵涉到识别内容究竟是由人还是机器生成的问题。
  何俊良:如果问ChatGPT我们自己不熟悉的专业领域的问题,它的回答会看起来非常专业,但实际上可能包含很多错误的知识和误导性观点,而我们难以分辨。
  真实性问题会带来信赖危机,而一旦公众不敢信赖一款应用,它也便难于发展。比如自动驾驶技术,就算准确性达到99%,但由于AI的决策不可解释、不可完全控制,很多人就不信赖它,不愿意去使用,这也导致自动驾驶技术一直未能普及。
  大语言模型目前最亟待解决的问题之一,就是怎么去判断AI的输出到底是对是错,学界也特别关心。
  陈雨强:可信性问题确实很重要。目前ChatGPT热度正劲,但除了日活数据,还有一个关键指标是用户留存数,也就是有多少人在一周、一个月、半年之后还在持续使用这款产品。
  信息或知识来源是否可靠,每条引用甚至每句话是否都有出处,推理是否经过验证,生成的文章是否可溯源,都会影响用户留存。新鲜劲过去后,可信性问题直接影响用户还愿不愿意使用这款产品。