切换为使用验证码登录
自从ChatGPT发布以来,其强大的功能让学术界感到了压力,一方面可让学术工作者摆脱繁琐的科研事务,比如文献检索、数据查找;另一方面人工智能参与论文写作的程度越来越深,如不仔细阅读很难发现人工智能撰写的部分,其实验数据、结果、结论的可靠性就难以保障,因人工智能学习的数据库差异、算法的差异等原因导致。而对于学术界的顶刊来说,Natuer、Science、Cell等期刊对ChatGPT的态度,可作为科研工作者使用人工智能参与科研的参考。
Nature在今年年初的时候针对ChatGPT代写学研文章、被列为作者等一系列问题,给了定性。其态度基本是不认可人工智能参与论文写作,如果有chatgpt这类人工智能生成的内容最好标注出来,刻意隐瞒然后被查出来基本就是退稿处理。具体来说,Nature列出两项原则:
(1)任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;(2)如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。
Nature表示,ChatGPT原始输出可以通过仔细检查而被发现,尤其涉及具体科学工作时,内容可能包含最简单的错误及泛泛乏味的措辞。这也是用ChatGPT撰写论文被诟病的主要原因之一。Science则直接禁止投稿使用ChatGPT生成文本。生成式人工智能的准确性依赖于数据的真实性与广泛性、算法的公正性以及人工智能学习的程度,其中一个环节出现错误,生成内容的真实性将大打折扣。