ChatGPT让Nature一周发两文探讨:学术圈使用不可避免,是时候明确使用规范

“每个课题组都该试试ChatGPT”

明敏 发自 凹非寺

量子位 | 公众号 QbitAI

在科技巨头为了ChatGPT大打出手的另一边,学术圈对于ChatGPT的关注也在升高。

一周时间内,Nature连发两篇文章探讨ChatGPT及生成式AI。

毕竟ChatGPT最早还是在学术圈内掀起风浪,先后有学者拿它写论文摘要、改论文。

Nature为此专门颁布禁令:ChatGPT不能当论文作者。Science则直接禁止投稿使用ChatGPT生成文本。

但趋势已摆在眼前。

现在更应该做的,或许是明确ChatGPT对于科学界的意义以及应当处于怎样的身位。

正如Nature所言:

生成式AI及背后的技术发展如此之快,每个月都有创新出现。研究人员如何使用它们,将决定着技术和学界的未来。

ChatGPT改变学术圈规则

在《ChatGPT:五大优先研究问题》一文中,研究人员提出:

无法阻止ChatGPT杀入学术圈,当务之急应该是研究探讨它会带来哪些潜在影响。

如果后续ChatGPT被拿来设计实验、进行同行审议、辅助出版、帮编辑决定是否要接收文章……这些应用应该注意哪些问题?现在人类需要明确哪些边界?

研究人员认为,有5个方面需要优先考虑,并解释了原因。

坚持人类审查

ChatGPT等对话式AI的一大特点,就是回答内容的准确性无法保证。而且编出来的瞎话都还很自然,容易对人产生误导。

比如,研究人员让ChatGPT对一篇关于认知行为疗法(CBT)治疗焦虑等症状是否有效的论文,并进行总结概述。

ChatGPT给出的回答中,存在很多事实性错误。如它说这项评估是基于46项研究,但实际上是69项,而且夸大了CBT的有效性。

研究人员认为如果有学者使用了ChatGPT帮忙做研究,很可能被错误信息误导。甚至会导致学者在不知情的情况下,剽窃他人成果

因此,研究人员认为在评审论文过程中,人类不能过度依赖于自动化系统,最终还是要由人类自己为科学实践负责。

制定问责规则

为了应对生成式AI的滥用,很多鉴别AI文本工具陆续诞生,它们能很好分辨出一段文字是不是人类自己写的。

不过,研究人员认为这种“军备赛”大可不必,真正要做的是让学术圈、出版商能更加公开透明地使用AI工具。

论文作者应该明确标注哪些工作是AI承担的,期刊如果使用AI审稿,也应该公开说明。

尤其是目前生成式AI已经引发了关于专利问题的讨论,AI生成的图像版权究竟该怎么算?

那么对于AI生成的问题,著作权应该属于为AI提供训练数据的人?AI背后的制作公司?还是用AI写文章的学者?作者身份的问题,也需要严谨定义。

投资真正开放的LLM

目前,几乎所有先进的对话式AI,都是科技巨头们带来的。

关于AI工具背后算法的工作原理,很多都还不得而知。

这也引发了社会各界的担忧,因为巨头们的垄断行为,严重违背了科学界开放的原则。

这将会影响学术圈探寻对话式AI的缺点和底层原理,进一步影响科技的进步。

为了克服这种不透明性,研究人员认为当下应该优先考虑开源AI算法的开发和应用。比如开源大模型BLOOM,就是由1000位科学家联合发起的,性能方面可以匹敌GPT-3。

拥抱AI的优点

虽然有很多方面需要设限,但不可否认,AI确实能提升学术圈的效率。

比如一些审查工作,AI可以快速搞定,而学者们就能更加专注于实验本身了,成果也能更快发表,从而推动整个学术圈的脚步走得更快。

甚至在一些创造性工作上,研究人员认为AI也能有用武之地。

1991年的一篇开创性论文提出,人和AI之间形成的“智能伙伴关系”,可以胜过单独人类的智力和能力

这种关系能够将创新加速到无法想象的水平。但问题是,这种自动化能走多远?应该走多远?

因此,研究人员也呼吁,包括伦理学家在内的学者,必须就当今AI在知识内容生成方面的界限展开讨论,人类的创造力和原创性可能仍旧是进行创新研究必不可缺的因素。

展开大辩论

鉴于当下LLM带来的影响,研究人员认为学界应该紧急组织一次大辩论。

他们呼吁,每个研究小组都应该立即开组会,讨论并亲自试试ChatGPT。大学老师应该主动和学生讨论ChatGPT的使用和伦理问题。

在早期规则还没有明确的阶段,对于研究小组负责人来说,重要的是如何号召大家更公开透明地使用ChatGPT,并开始形成一些规则。以及应该提醒所有研究人员,要对自己的工作负责,无论它是否由ChatGPT生成。

更进一步,研究人员认为要立即举办一个国际论坛,讨论LLM的研究和使用问题。

成员应该包括各个领域的科学家、科技公司、研究机构投资方、科学院、出版商、非政府组织以及法律和隐私方面的专家。

Nature:ChatGPT和AIGC对科学意味着什么

兴奋又担忧,大概是许多研究人员对于ChatGPT的感受。

发展到现在,ChatGPT已经成为了许多学者的数字助手。

计算生物学家Casey Greene等人,用ChatGPT来修改论文。5分钟,AI就能审查完一份手稿,甚至连参考文献部分的问题也能发现。

来自冰岛的学者Hafsteinn Einarsson,几乎每天都在用ChatGPT来帮他做PPT、检查学生作业。

还有神经生物学家 Almira Osmanovic Thunström觉得,语言大模型可以被用来帮学者们写经费申请,科学家们能节省更多时间出来。

不过,Nature对ChatGPT输出内容做出了精辟总结:

流畅但不准确。

要知道,ChatGPT的一大缺点,就是它生成的内容不一定是真实准确的,这会影响它在学术圈的使用效果。

能解决吗?

从现在来看,答案有点扑朔迷离。

OpenAI的竞争对手Anthroic号称解决了ChatGPT的一些问题,不过他们没有接受Nature的采访。

Meta发布过一个名为Galactica的语言大模型,它由4800万篇学术论文、著作炼成,号称擅长生成学术方面内容,更懂研究问题。不过现在它的demo已经不开放了(代码还能用),因为用户在使用过程中发现它带有种族歧视。

即便是已经被调教“乖巧”的ChatGPT,也可能会在刻意引导下输出危险言论。

OpenAI让ChatGPT变乖的方法也很简单粗暴,就是去找非常多的人工给语料标注,有声音认为这种雇人看有毒语料的行为,也是一种剥削。

但无论如何,ChatGPT及生成式AI,开启了人类新的一扇想象之门。

医学学者埃里克·托普(Eric Topol)表示,他希望未来能有包含LLM的人工智能,可以交叉检查学术文献中的文本和图像,从而帮助人类诊断癌症、理解疾病。当然这一切要有专家做监督。

他说,真没想到我们在2023年年初,就看到了这样的趋势。

而这才只是开始。

参考链接:
[1]https://www.nature.com/articles/d41586-023-00340-6
[2]https://www.nature.com/articles/d41586-023-00288-7

版权所有,未经授权不得以任何形式转载及使用,违者必究。