学术圈AI论文造假太泛滥!因忘删ChatGPT生成按钮惨遭撤稿
所属栏目:学术前沿
发布时间:2023-09-13 17:33:00 更新时间:2023-09-21 15:05:50
相信不少作者也是较为了解ChatGPT这一AI软件的,可以说科研圈,快被ChatGPT生成的论文吞没了!近日,就有一篇数学论文被发现ChatGPT痕迹,惨遭撤稿。

一篇收录于期刊上的论文,提出了一种复杂数学方程的全新解决方案。本来是一件皆大欢喜的事,但直到在论文的第三页出现「重新生成回复」(Regenerate Response)这一短语。让人意识到是较为熟悉的ChatGPT这一智能软件。果然论文作者承认在写作论文稿件时确实使用了ChatGPT。

而这篇论文在5月被提交,7月发出了修订版,在两个月的同行评审期间,都没有人发现其中的异常。现在,决定撤回这篇论文,理由是作者在提交论文时,并没有声明自己使用了ChatGPT。期刊的同行评审和研究诚信主管Kim Eggleton表示,「这种行为违反了我们的道德政策。」
当然以上这只是冰山一角,其实从今年4月以来,有十几篇论文都留下了ChatGPT的使用痕迹——「Regenerate response」或「作为一个语言模型,我……」
而对于写论文时究竟可不可以用ChatGPT?这一问题,Elsevier(爱思唯尔)和Springer Nature(施普林格·自然)在内的许多出版商都有明确规定:大语言模型工具用是可以用的,只要作者声明自己使用了即可。不过目前看来,大部分使用了ChatGPT的同行评审论文,都没有声明这一点。
另外,在爱思唯尔期刊中,也发现了一些典型的ChatGPT「黑话」。
比如一篇8月3日发表在上的论文,主题是电子商务对发展中国家化石燃料效率的影响。其文章里有些方程完全就是不知所云。不过最大的可疑之处在于,在某张表格上方,出现了这样一行字:「请注意,作为一个语言模型,我无法生成具体的表格或进行测试……」
对此,Elsevier的一位发言人表示,他们已经发现了这个问题,正在对这篇论文进行调查。
如今的学术圈,可能已经充斥着一大批AI生产的「垃圾」论文。我们根本无从分辨,哪些是经过认真研究产生的严肃学术成果,哪些是AI炮制出来滥竽充数的「垃圾」。而出现这一问题的原因,有人问了,为什么那些由AI生成的假论文,能屡次通过如此严格的同行评审?
同行评审:时间紧,人不够
一方面,ChatGPT这类的技术还比较新,并不是所有人都能有效辨别;另一方面,同行评审可能根本没有时间来检查这个问题。对此,期刊中那些由此生成且未被发现的论文,指向了一个更深层次的问题:同行评审往往足够多的没有时间,来彻底检查稿件中的可疑之处。
以上就是对学术圈使用ChatGPT生成器这一论文造假行为的现象说明,对此可阅读了解一下。如果有相关SCI发表疑问的,都可随时联系本站学术顾问。
月期刊平台服务过的文章录用时间为1-3个月,依据20年经验,经月期刊专家预审通过后的文章,投稿通过率100%以上!