chatgpt提供的论文文献 学者用ChatGPT半年内炮制17篇论文

AI资讯2年前 (2023)发布 fengdao
45 0

Som S. 的谷歌学术页面截图

发表或灭亡( or ):“人们需要系好安全带并做好准备。”

能用快速炮制学术论文发表嘛?!

照片插图由 Erin O’Flynn/The Daily Beast/Getty 和 SSRN 提供

当 Som 第一次了解到 时,他的脑海里突然灵光一闪。 是田纳西大学健康科学中心的一名放射科医生,他在 2022 年 11 月发布的一篇有关 聊天机器人的文章中偶然发现了该文章。虽然全世界仍在接受该技术的地震影响,但 意识到他可以利用它使他职业生涯的至少一个方面变得更加容易。

“我是一名研究员,我定期发表文章,”比斯瓦斯告诉《每日野兽报》。“这两件事在我的大脑中联系在一起:如果 可以用来写故事和笑话,为什么不能用它来研究或发表严肃的文章呢?”

他需要一个概念证明,因此 让机器人写了一篇关于他已经非常熟悉的主题的文章:医学写作。经过反复试验, 能够通过逐节提示 来创建一篇文章。完成后,他将论文提交给《放射学》,这是北美放射学会的同行评审月刊。“最后,我告诉编辑,‘你读到的所有内容都是人工智能写的’,这给他们留下了深刻的印象,”他说。

比斯瓦斯表示,几天后,这篇题为“ 和医学写作的未来”的论文经过同行评审后在《》上发表。事情结束后,他觉得自己似乎明白了什么。 不仅仅可以用于玩创意项目。他实际上可以用它来帮助他的事业和研究。

所做的事情并不一定是独一无二的。自从 发布以来,像 这样的学者和研究人员一直在使用大型语言模型 (LLM) 作为工具来帮助他们自己的写作和研究过程,并且偶尔会使用机器人生成论文。虽然他们以这种方式提供了帮助,但他们也给科学界带来了巨大的变化,让许多专家担心学术出版的可信度受到侵蚀。

自发表第一篇文章以来, 已使用 的聊天机器人在四个月内撰写了至少 16 篇论文,并在 4 种不同的期刊上发表了 5 篇文章。最新的这篇文章于 4 月 28 日作为评论发表在《儿科放射学》杂志上。 其中, 被列为唯一作者,并在最后承认该文章是由 撰写并编辑的。

然而,比斯瓦斯自己承认,他撰写的论文并不局限于他的放射学专业知识范围内的主题。事实上,他使用该机器人撰写了有关 在军事、教育、农业、社交媒体、保险、法律和微生物学中的作用的论文。他成功地将这些成果发表在专门针对不同领域学科的期刊上,其中包括《美索不达米亚计算机科学杂志》上发表的一篇有关计算机编程的论文,以及《美索不达米亚计算机科学杂志》上给编辑的两封关于全球变暖和公共卫生的信。生物医学工程年鉴。

chatgpt提供的论文文献_论文的文献算查重吗_论文文献会严查吗

一年前,这种类型的产出可能看起来完全不现实。论文甚至需要花费数十甚至数百小时的研究才能将文字付诸实践。科学研究人员每年最多可能发表几篇论文。很少有人会在他们一生的工作之外的主题上进行写作。

然而,那些使用 来撰写论文的人已经比前几年的产出高出了几个数量级—— 就是其中之一。他的动机不仅仅是看到他的署名。正如他告诉《每日野兽报》的那样,他想成为一项新兴技术的传播者,他相信这项技术将永远改变所有研究人员的工作方式。

“医疗保健将会发生变化。写作将会改变。研究将会改变,”比斯瓦斯说。“我现在只是想发布并展示它,以便人们可以了解它并探索更多。”

“人们变得越来越愚蠢。”

的发布引发了人们对法学硕士将如何颠覆文案、新闻、学生论文甚至喜剧写作等行业和实践的担忧。学术界和科学文献界也为即将到来的剧变做好了准备——这场剧变可以说比之前预期的要剧烈得多。

“我们收到的不同文章数量确实大幅增加,”弗吉尼亚理工大学工程学教授斯特凡·杜马 ( Duma) 告诉《每日野兽报》。杜马是《生物医学工程年鉴》的主编。他说,在过去的几个月里,他看到提交在他的期刊上发表的不同论文的数量呈指数级增长,其中包括他在给编辑的信中从 发表的两篇论文。

“提交给编辑的信的数量从几乎为零增加到现在每周可能两到三封,所以每个月可能有十几封,”他说。“这是一个天文数字,因为我们通常每个月可能只会收到一两封关于任何事情的信件。现在我们得到了超过 10 个关于 的信息,这是一个很大的增长。”

杜马解释说,给编辑的信基本上是期刊的意见部分。在这里发表文章所需的写作类型和研究深度的限制较少。这就是为什么杜马愿意在该版块发表比斯瓦斯有关全球变暖和公共卫生的文章。

然而,他补充说,由于 和其他法学硕士生成的文章质量低下,他已经拒绝了更多的文章。

“人们对它们越来越傻了,”他说。“人们会向我发送 10 封相同的信,其中一个单词发生了变化。我们试图确保其中一些东西有一些独特性。但这不是完整的同行评审。人们可以自由地在给编辑的信中写下任何他们想要的内容。因此,如果它根本没有添加任何新颖的东西,而且只是有点重复,我们就会拒绝它们。”(《美索不达米亚计算机科学与放射学杂志》没有回应《每日野兽报》的置评请求。)

像 Duma 这样的期刊编辑并不是唯一注意到 对学术界影响的人。人工智能的繁荣为研究人员创造了一个全新的领域——随着这些工具的激增和变得更加复杂,它只会变得更加困难。

微生物学家兼科学诚信专家伊丽莎白·比克 ( Bik) 告诉《每日野兽报》,她对法学硕士在学术界的使用有两种看法。一方面,她承认,对于母语不是英语的研究人员来说,它可能成为一个宝贵的工具,他们可以用它来构建连贯的句子和段落。

另一方面,她也一直在关注研究人员的增加,这些研究人员仅在过去几个月就明显滥用聊天机器人,撰写了数十篇文章。她声称,许多“作者”也没有承认他们使用 或其他模型来帮助生成文章的事实。

论文的文献算查重吗_chatgpt提供的论文文献_论文文献会严查吗

“至少 [] 承认他正在使用 ,所以你必须给予他一些信任,”Bik 说。“我已经遇到过很多人,他们也发表了大量令人难以置信的论文,但却不承认 。这些人发表的内容太多了。就像,这实际上是不可能的。”

比克解释说,原因很简单:“引用次数和出版物数量是衡量学术水平的两个指标。” 你拥有的越多,在学术机构和科学组织眼中你就显得越合法、越有经验。“因此,如果你找到一种人为的方法来提高这些效果,感觉就像是不公平的,因为现在他将赢得所有绩效指标。”

使用量的增加也反映出学术界对研究人员的期望的黯淡。斯坦福大学人工智能伦理学博士后布雷特·卡兰 (Brett ) 在接受 The Daily Beast 采访时表示:“考虑到发表论文的巨大压力,我认为学者们将开始依靠 来自动化写作中一些比较无聊的部分。”电子邮件。“那些大量产出几乎无法发表的论文并将其发送给掠夺性期刊的人很可能会找到使用 实现自动化的工作流程。”

比克还担心,法学硕士的激增只会助长所谓的造纸厂,这是一个研究术语,描述黑市组织,这些组织通过制作类似于真实研究的欺诈性科学论文并出售合法研究的作者权来破坏传统学术研究。造纸厂生产的学术论文经常被严重抄袭并重复使用数据和资产。“你可以想象一个优秀的即兴作家,他可以每分钟写出一篇论文,然后将论文卖给需要的作者,”比克说。

因此,虽然它可以为像 希望的一些学者提供一个非常有用的工具,但 和其他法学硕士创造了一种轻松和高效的完美风暴,可能让不良行为者利用迄今为止毫无准备的学术出版业来应对这些挑战。

学术游戏规则的改变者

如今学术界和研究出版所面临的问题与媒体和新闻业等众多行业在使用这些先进的聊天机器人时必须应对的问题完全相同:可信度的侵蚀和潜在的危害。

更广泛地说,法学硕士和人工智能有着悠久而肮脏的偏见历史,这导致了许多关于种族主义和性别歧视造成伤害的报道。像 这样的聊天机器人也不例外。例如,在其发布的最初几天,用户报告了 的法学硕士所做的事情,例如告诉用户只有白人男性才能成为优秀的科学家,并且如果他们是非裔美国男孩,则不应挽救孩子的生命。

偏见已成为人工智能长期存在的问题。即使我们看到技术变得越来越复杂,偏见似乎仍然存在。这些机器人是根据来自人类(有偏见、种族主义、性别歧视、厌女症的人类)的大量数据集进行训练的,无论人工智能开发人员试图设置多少过滤器和护栏,这些数据都可能出现在最终产品中。

学术期刊正试图跟上这些新兴技术的惊人步伐,这些技术似乎每时每刻都在发展并变得更加强大。杜马告诉《每日野兽报》,他的期刊《生物医学工程年鉴》最近颁布了一项新政策,禁止法学硕士被列为共同作者,也不允许此类论文作为常规研究文章发表。

“作者身份非常严肃,我们也非常重视,”杜马说。“因此,每当我们发表论文时,作者都必须签名,表明他们对论文做出了重大贡献。 无法参与其中。 不能成为作者。”

然而,他承认这些工具将继续存在。不这么说不仅是无知,甚至可能是危险的,因为它不允许行业做出相应的调整。“我认为人们需要系好安全带并做好准备,”杜马说。“它就在这里,它将成为我们生活的一部分,而且随着我们的前进,可能会越来越成为我们生活的一部分。”

与此同时, 计划继续使用 来帮助他的写作过程。他对 最新版本及其新功能的发布感到特别兴奋,特别是其多模式功能。这是该模型理解图像和文本输入的能力——他说这将代表人工智能和研究人员之间关系的另一个转折点。

“图像到文本是一个游戏规则改变者,特别是对于放射学来说,因为图像就是我们所做的,”比斯瓦斯说。“如果这对我们有帮助,那么我想我会发表更多文章来探讨它——因为如果我不这样做,其他人就会这么做。”

## @

© 版权声明

相关文章

暂无评论

暂无评论...