投稿问答最小化  关闭

万维书刊APP下载

学术论文写作使用ChatGPT的是与非

2023/5/22 8:54:28  阅读:212 发布者:

对于研究人员来说,最大的挑战之一是确保他们的研究以清晰、引人入胜的方式呈现,成功地将他们的研究结果转化为引人注目的叙述和具有影响力的科学发现。尽管扎实的研究设计和执行是有意义的研究的支柱,但沟通的形式和风格也在学术界和其他领域中扮演着关键的角色,有助于该研究被接受、传播和采纳。

以英语作为第二语言的作者面临着特别的挑战,他们需要用英语传达他们的新发现。写作工具和作者服务可以帮助这些研究人员提高论证的清晰度,节省他们的时间,更多地关注研究,提高出版速度,并对他们的工作获得信心。最重要的是,这些工具为以英语为第二语言的研究人员(世界上绝大多数研究人员)提供了一个更公平的竞争平台,使研究的评估取决于其内容的质量,而不是作者的英语水平。

能否使用ChatGPT撰写研究论文:

ChatGPT于去年11月发布以来,研究人员就开始尝试如何利用它来帮助撰写系统性综述、完成文献搜索、总结文章和讨论实验结果。因此,在讨论GPT的使用时,一些主要出版商忽略了其广泛的影响和众多用例,而是聚焦于一个特别晦涩的问题,即“ChatGPT能否作为作者”。

这种反应似乎是对少数尝试将ChatGPT列为贡献作者的反应,许多出版商在这种趋势获得关注之前就想要拒绝。至少有一些作者提交的由ChatGPT撰写的文章似乎是为了测试作者身份的界限并表达观点的理论实验。《科学》、爱思唯尔和《自然》迅速作出反应,更新了各自的编辑和出版政策,无条件地声明ChatGPT不能在学术论文上列为作者。《自然》甚至将GPT描述为“对透明科学的威胁”。GPT未被授予作者身份似乎已经足够平淡,没有引起太多抵制。就事实而言,并不太多的研究人员会争夺与同事分享作者信用,更不用说与一个聊天机器人了。

然而,出版商似乎回答了很少有人提出的问题,同时避免了其他的用例。作者是否可以或应该使用ChatGPT或其他AI工具来开发和撰写自己的研究论文?它能用于进行文献综述吗?分析结果呢?或者从现有文章中起草摘要?这些是作者们提出的重要问题,出版商似乎留下了解释空间。

论文写作是否要与ChatGPT划清界限

那些处理这个“灰色地带”的出版商在关于ChatGPT能否用于研究过程中提供协助、以及他们的政策的详细程度和清晰度方面存在差异。

在宣布非人类不能获得作者资格后,JAMA为使用ChatGPT进行写作协助留下了一些余地。指南要求作者详细描述涉及的性质。例如,作者应在致谢部分或方法部分报告使用人工智能、语言模型、机器学习或类似技术来创建内容或协助写作或编辑手稿。如果这是正式研究设计或方法的一部分,那么这应包括被创建或编辑的内容描述,语言模型或工具的名称、版本和扩展号码以及制造商。

学术界似乎采用了更加黑白分明的方法,基本上禁止使用由ChatGPT(或任何其他AI工具)生成的文本,也不能使用这些工具生成的图表、图像或图形,而AI程序本身也不能作为作者。违反这些政策将构成科学不端行为,就像篡改图像或抄袭现有作品一样。

不过有一个值得注意的例外是ACS,他们似乎正在采取积极的方法来定义AI技术的适当使用准则。ACS Energy的一篇“观点”文章提出了一个可能的想法,即ChatGPT可以采用一种“辅助驾驶方法,承诺还给研究人员更多的时间,使他们摆脱科学写作的负担,回归科学本身”。ACS Nano的一篇社论详细阐述了使用AI工具的最佳实践和政策。

 ACS所理解的是,GPT可以是一个良好的创意和写作工具,但它不是可靠信息的来源。值得注意的是,COPE发布了一个立场声明,澄清作者可以使用这些工具,只要它们得到适当的署名和归属。在政策中对这些区别进行界定和规范似乎是迈向未来的关键一步。

支持还是反对

出版界对于大量出现论文开始有些担忧。传统的抄袭检测器还没有跟上人工智能检测的步伐,即使是那些能够进行一定程度检测的工具,也可能会被人工智能生成的文本放入改写工具中的做法所欺骗。没有出版商希望成为下一个HindawiIOP,面临大规模撤回文章的情况。

另一方面,出版商明智的做法是为作者留下使用人工智能工具来支持他们研究的台阶,原因有两个。首先,严格监管这些工具的使用不仅是徒劳的,而且强制执行可能很快就会成为一场噩梦。其次,一场已经开始的软件竞赛似乎已经展开,以构建出检测人工智能写作的软件。出版商可能会花费惊人的资金购买这些工具,但最终可能被更好的模型所击败。在全力投入之前,是否应该把重点放在这个问题上是值得考虑的一个重要问题。

出版商正在努力开展人工智能与人类合作的项目,他们认为这是出版业的未来。Springer Nature最近宣布了他们的第一个人工智能增强研究亮点,似乎还有更多的内容即将推出。Cureus(也是Springer Nature出版物)正在举办一个比赛,呼吁作者提交GPT辅助的病例报告,而JMIR最近发出了一篇特别号的论文征集,使用GPT发表论文。

为了对GPT做出正确的应对决策,需要重新审视许多关于论文发表的基本问题,包括作者身份的定义,什么是抄袭以及研究写作的性质。如果能就推动科学出版的价值观达成一些共识,那么就有机会制定有意义、复杂的政策。

论文中的作者身份资格

为了回答这个问题,需要深入了解在研究背景下如何理解“作者身份”。只需要看看多位作者的论文中关于作者身份的争议性讨论和排名,就能够明白作者身份问题会很快变得错综复杂。

Nature》杂志的主编Magdalena Skipper认为,“作者身份的归属意味着对研究的负责,但这种负责无法有效地应用于语言模型”。如果研究人员提出了自己的结果、想法和领域概念,并得到了帮助将它们整合起来,那么这是否意味着他们的研究不再具有新颖性,或者他们不再需要承担责任。作者身份是否意味着列出的作者必须写下每个词、格式化每个引用,并插入每个逗号,还是他们要对最终结果负责。

作者是否可以对由语言模型生成的想法进行审查和筛选,以承担责任?即使GPT为研究产生了一些数据或叙述,人类的“提示工程师”仍需承担促进过程和通过自己的批判性审查和修改确保信息的真实性的负担。

WAME的建议指出,聊天机器人无法满足ICMJE的作者资格标准,特别是“最终批准要发表的版本”和“同意对确保作品的任何部分的准确性或完整性涉及的问题进行适当的调查和解决,承担责任”的标准。然而,这个定义需要一些诚实的反思和内省。毕竟,有很多对文章做出贡献的作者(如学生),他们没有最终批准要发表的版本,并且不需要对“作品的所有方面”负责。

除了对所产生的工作负责之外,COPE指南还要求“对工作做出实质性贡献”。在作者贡献的CREDIT分类中,有14种不同的方式可以在论文中做出重大贡献并获得作者身份,我认为ChatGPT至少可以在其中10种方面做出重要贡献。作者们是否可能在严重依赖GPT作为信息来源和作者个人助手的同时,也能做出重要贡献并承担责任呢?

论文写作使用ChatGPT是否是“抄袭与剽窃”

作者最基本的原则之一是,思想、文字和概念需要是原创的,或者适当的归属。抄袭这个词的根源是拉丁语plagiarius,即 "绑架者"。如果文本不是原创的,就构成了剽窃,这是学术出版中的大罪。因此,我们有必要问:生成和使用人工智能辅助的文本应该构成抄袭吗?

这个问题的答案取决于ChatGPT到底是如何工作的,以及如何定义抄袭。关于前者,似乎不太可能出现在不知情的情况下直接从其他来源抄袭大段文字的风险,尽管小段的句子片段确实可能在其他地方找到。

更重要的是,我们需要对剽窃行为进行定义。如果我们把抄袭理解为使用作者不是以自己的名义写的材料,那么人工智能辅助写作应该被视为抄袭。然而,如果抄袭需要从他人那里获取想法并将其作为自己的想法,那么GPT可能不被认为是抄袭,因为这些文本是新的,不是从别人那里 ""来的。学术写作本质上包括建立一个以前工作的框架,研究者可以围绕这个框架增加新意。

GPT当作工具协助写作,是否有别于其他工具

如果我们要严格监管GPT的使用,那么也许我们应该打击使用科学代笔者,他们在写作过程中做了很多(尤其是在工业领域),但很少得到承认,忘记了他们贡献的作者身份。我们还需要考虑是否要向作者询问他们使用的其他形式的人工智能写作协助帮助。诸如GrammarlyWriteful,甚至微软的语法检查器等工具都是作者非常依赖的。如果作者使用GPT的目的是语言,为什么需要申报,而其他工具不需要呢?

许多领域的研究人员使用软件和工具来收集、组织和分析他们的数据,没有人眨眼。是什么让我们对写作的内涵反应如此之大的不同?另外,如果作者从ChatGPT获得新的研究思路,或者让GPT分析他们的结果,但用自己的语言写出来,这是否可以,因为作者在技术上是在写作?

我相信有一部分研究人员不会把GPT作为主要来源,就像他们不会以这种方式使用维基百科一样。然而,他们可以以无数其他方式使用它,包括头脑风暴、造句、数据计算等等。对信息的真实性负责的责任仍然落在研究者身上,但这并不意味着我们应该跑去禁止,因为有些人可能把它作为一种节省时间的方式。采取强硬的政策,比如《科学》采取的政策,似乎忽视了绝大多数善意行事的研究人员,他们只是想利用这些工具来推动他们的工作。

恐惧的代价:错失为EAL作者创造公平竞争环境的机会

禁止GPT的出版商正在失去一个为EAL作者提供公平竞争环境的独特机会。GPT可以用在很多方面,以有意义的方式帮助改善科学写作,限制它的使用使这些作者处于明显的劣势。反过来说,抓住机会利用这些工具为其国际社区服务的出版商,可以有意义地与以前因语言劣势而无法接触或基本不参与的大量受众接触,从而实现更大的代表多样性。

不仅如此,强硬的做法实际上会适得其反,导致作者的透明度下降。以下是值得关注的一些考虑:最近《自然》杂志的一项调查发现,80%的作者已经 "玩过 "GPT。其中许多作者不知道特定出版商的政策是什么,并可能在不知情的情况下 "构成科学上的不当行为,与改变图像或剽窃现有作品没有区别"。我们真的想把那些不阅读细小条款和条件的研究人员定罪吗?

ChatGPT已经被整合到Bing Chat中,并将很快被整合到Microsoft Word中。禁止GPT可能很快意味着禁止使用搜索和文字处理器。同时,也很难像一些出版商要求的那样准确定义GPT在某项研究中的使用情况,同样,作者几乎不可能详细说明他们如何使用谷歌作为研究的一部分。WAME的准则是 "声明与聊天机器人一起使用的具体查询功能",这似乎要求提供不现实的文件负担。此外,许多领域的研究人员已经在使用无数的人工智能工具,如ElicitSemantic ScholarScite。我们是否需要回去撤回那些论文,因为他们使用了人工智能工具而没有适当的归属?

结论:我们真正希望我们的科学家做什么?

强大的人工智能工具的涌现,促使我们提出一些基本问题,即我们如何看待科学家的一般作用,以及写作在他们工作中的具体作用。换句话说,我们甚至应该在多大程度上关心作者写下他们研究的每一个字?

我认为,至少在STEM的背景下,写作过程是一种手段,目的是以清晰和连贯的方式传达重要的发现。如果我们能更快、更便捷地做到这一点,那么也许我们应该停下来考虑一下潜在的好处。我们会因为PI得到了人工智能工具的帮助而耽误了拯救生命的COVID研究吗?

在这种情况下,人文社科和STEM工作之间可能有一个重要的区分空间。在写作行为构成研究的重要组成部分的情况下,或者在作者的角色影响研究性质的人种学和定性研究中,有理由采取更严格的政策。我们必须对如何为人工智能工具的使用立法进行更多的思考,并在更细的层面上进行研究。

作为一个基本前提,建议出版商鼓励研究人员使用他们所掌握的所有工具,以使他们的工作尽可能的方便和有影响,同时继续教育研究人员如何寻找、审查和核实信息。同时,出版商需要快速推进同行评审改革,以做好准备,应对新奇与反刍--事实与虚构--之间更加模糊的界限。

转自:“华誉学术”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com