新智元报道

编辑:桃子 好困

【新智元导读】一场轰动学术界的地震,就此爆发了!全球顶级期刊《人类进化杂志》竟暗中用AI篡改论文,计划砍掉超一半副主编。JHE编委会对此不满集体辞职,揭开了这家出版巨头的重重黑幕。

38年老牌期刊用AI乱改论文,竟逼走了全体编辑!

最近,这场震动学术界的「离职潮」引来一大波关注:爱思唯尔旗下顶尖期刊《人类进化杂志》(JHE)的编辑们,除1人外集体辞职。


令人愤怒的是,这家出版巨头偷偷用AI处理论文,完全没有通知作者和编辑,甚至篡改了已经审核通过的内容。

不仅如此,著名科学家投稿的论文,也被AI肆意更改。

而背后的原因,竟是因为人力成本太高,出版商希望通过AI进一步削减成本。


威斯康星大学麦迪逊分校的John Hawks教授愕然发现,自己在JHE发表的17篇论文中,最近的4篇都经过了AI的处理,却没有收到任何通知。

他气愤地表示,「如果我知道AI可能会改变文章的含义,我绝对会选择在其他地方投稿」。

在休假的周末,JHE的编委会发布了一份完整的在线辞职声明文件,——「这对于我们每个人来说,都是一个极其痛苦的决定」,


地址:https://retractionwatch.com/wp-content/uploads/2024/12/Social-Media-Statement-re-JHE-Resignations.pdf

AI乱入,超50%编辑被炒

外媒称,从2023年开始,爱思唯尔在毫无预警的情况下,便悄悄将AI引入期刊制作的流程中。

而这个决定带来的后果,简直令人瞠目结舌——

AI不仅随意改写了已经编辑审核完毕的论文,而且大量样式和格式的错误层出不穷。

更忍无可忍的是,论文的含义都被AI改得满目苍夷。


在最新声明中,编委会指出了过去10年,发生的的几项变革违背了JHE期刊长期以来的编辑原则。

其中就包括,取消对文字编辑和特刊编辑的支持。

爱思唯尔还狂妄地表示,「编辑不应该关注语言、语法、可读性、一致性或专业术语及格式的准确性」。


除了AI乱改论文,他们还做出了一系列令人心寒的决定。

比如,计划将副总编人数砍掉超一半,带来的最直接的后果是,更少的编辑处理更多的工作量。

此外,爱思唯尔2023年「单方面完全控制」编委会结构,强制所有副主编每年重新续签合同,同时建立象征性的第三级编委会,直接损害了编辑的独立性和完整性。

过去38年来,主编们倾注了大量无数心血,才将JHE打造成为古人类学研究领域的领衔期刊。 我们对这份期刊、这个学科以及整个学术界都怀有深厚的感情。然而,面对当前的情况,我们发现继续与爱思唯尔的合作已经与我们的学术良知和职业操守产生了根本性的冲突。这种矛盾让我们不得不做出艰难的抉择。
天价费用,运营离谱

长期以来,爱思唯尔一直备受诟病,这一最新发展更是加剧了这场争议。

一些内部制作的工作已经被削减或外包,同时在并未知会编辑前提下,秘密引入AI。

集体起义的编辑们称,「这对期刊造成了极大的困扰,我们整整花费了6个月的时间,才勉强解决了AI带来的问题」。

即便如此,AI处理持续在使用中,经常对提交的手稿进行重新格式化,导致内容含义和格式发生改变,在校对阶段需要作者和编辑投入大量精力进行监督。

此外,JHE的版面费用居然比爱思唯尔旗下,其他营利性期刊还要高,甚至超过了著名的综合性开放获取期刊《科学报告》(Scientific Reports)。


面对这一天价费用,期刊的众多作者都无力承担。

编辑们在声明中指出,「这与爱思唯尔所承诺的平等和包容性原则完全背道而驰」。

事态的转折点,似乎在11月到达了顶峰。

当时,爱思唯尔通知联合主编Mark Grabowski(利物浦约翰摩尔大学)和Andrea Taylor(图罗大学加利福尼亚骨科医学院),将终止自1986年以来实行的「双主编制度」。

当Grabowski和Taylor对此表示抗议时,却被告知只有接受减薪50%的条件,才能维持这一制度。

明尼苏达大学莫里斯分校的生物学家PZ Myers在博客中,一针见血地指出,「爱思唯尔一如既往地管理不善,为追求利润最大化而罔顾质量。

尤其值得注意的是,他们认为人类编辑成本过高,因此试图用AI取而代之,并提议将主编薪酬削减一半。

值得一提的是,爱思唯尔对每篇提交的文章收取3,990美元的处理费用。显然,他们正在寻求进一步提高其商业运营模式的经济效益」。


AI应用良莠不齐

值得注意的是,这已经是自2023年以来,发生的第20起科学期刊集体辞职事件。

12月28日,UW-Madison的人类学家John Hawks发表了一篇博文称,对爱思唯尔在2023年将AI引入编辑流程感到震惊,并表示完全支持编委会成员的决定。


据统计,Hawks已经在这个期刊中一共发表过17篇论文。

过去2年,他发表了4篇文章,包括一篇正在出版的文章,都未收到过相关的通知。

他表示,此举违反了JHE自身制定的关于如何使用AI的指南。


实际上,提交论文的作者有权知晓,其作品将如何被AI处理。

Hawks称,「如果我知道AI可能会改变文章的含义,我会选择在其他期刊投稿」。

这场风波给我们敲响了警钟:如果AI使用不当,代价可能是灾难性的。

2024年早些时候,一篇发表在知名科学期刊Frontiers上的同行评议文章中,出现了几张明显失实的AI生成图片,在全网得到疯转。

其中,AI生成了一张怪诞的老鼠生殖器配图。



社交媒体上,研究员对这些图片感到震惊,又觉得荒谬。在重大舆论压力之下,这篇论文后来被撤回。

但这件事引发了人们更深层次的担忧:AI虽然提高了生产效率,却可能降低已发表科学研究的可信度。

然而,AI在科学研究中也有一些积极的应用。

比如,去年1月,Science期刊开始使用AI软件来自动检测造假的图片。

不过,这类软件也存在着局限性,对于那些了解软件运作机制的造假者,很容易就能规避检测。

Hawks在博客中承认,科学家和科学期刊使用AI可能是大势所趋,同样也认识到其潜在价值。

「我不认为这会带来反乌托邦的未来。但机器学习的应用质量确实参差不齐」。

任何人使用AI来减少或取代科学研究中,人的科学投入和监督都是不当的——无论这种投入来自研究人员、编辑、审稿人还是读者。

一个出版机构使用AI迫使专家花费额外时间进行重复校对,或使科学成果的传播变得更加困难,这是十分不智的。

特别令人恼火的是,爱思唯尔要求作者保持透明,但却不对自己的流程提供透明度。

去年3月,Nature曾发表了一篇文章,质疑大规模辞职作为一种新兴抗议形式的有效性。

这样的举动确实引起了关注,但其意义远超单纯的抗议。


如今,前Syntax编辑Klaus Abels和同事们已经开始筹建独立的非营利期刊,希望既能保持高学术标准,又能实现开放获取。

参考资料:

https://pivot-to-ai.com/2025/01/05/elsevier-rewrites-academic-papers-with-ai-without-telling-editors-or-authors/

https://www.wired.com/story/editors-at-science-journal-resign-en-masse-over-bad-use-of-ai-high-fees/

ad1 webp
ad2 webp
ad1 webp
ad2 webp