首页 > 自考资讯 > 高考百科

“中华医学会”出新规,这种行为两年内禁止投稿

小条 2024-06-27

(更多信息请关注“医学社区”微信公众号yixuejiezazhi,并在手机上下载医学社区医生站APP)

继去年中国科学技术信息研究院发布第《学术出版中AIGC使用边界指南》号文规范生成人工智能在学术研究尤其是文章写作方面的规范后,中华医学会杂志近期也发布了相关规定。

《中华医学杂志》1月10日出版第《关于在论文写作和评审过程中使用生成人工智能技术的有关规定》期,并明确如果论文主要内容是使用GenAI完成的,编辑部将视其为学术不端行为。

这并不是第一次对AI论文造假进行监管。在过去的一年里,包括《科学》 《自然》 在内的数千种期刊更新了编辑声明,限制或彻底禁止投稿者在论文写作过程中使用各种人工智能技术。

中华医学会如何规范人工智能论文写作?

ChatGPT的流行让人们认识到其潜在的风险和真正的价值,鼓励GenAI的创新应用,同时引导新技术的合法合理使用也是一个焦点。

去年12月21日,科技部监察局发布《负责任研究行为规范指引(2023)》,对医疗机构、鬼灯等科研机构以及申请材料的使用提出了科学道德和学术研究标准。禁止生成式人工智能直接生成申请材料。

《医学界》发现,中华医学会最新发布的GenAI使用规定是上述指导方针和政策的延伸,可以概括为“5个是,2个不是”。虽然没有完全禁止GenAI的使用,但确实“谨慎鼓励在论文写作中应用GenAI”,并严格在约定的范围内使用。

“五种可能”是指作者在撰写论文时有条件使用GenAI的情况。情况包括:

GenAI 可用于启发式探索目的,例如研究过程所需的文献搜索、主题选择想法和关键词推荐。然而,作者应检查GenAI 提供的信息,以确认参考文献的真实性和可信度。此外,您不能直接使用GenAI生成的经过验证的文档。

GenAI 可用于研究过程的统计分析。分析的数据必须是作者在科学研究活动中产生或收集的实际数据,作者对所选择的建模和测试方法负责,对其他方法的使用不承担责任。 GenAI统计分析结果测试验证,确保统计结果的可靠性和准确性。

借助GenAI,您可以改进论文的语言并将其翻译成另一种语言,以提高论文的可读性。作者可以参考GenAI提供的写作风格,但必须确保其论文包含以下风格:个人或联合作者的写作特征。

GenAI可用于推荐合适的统计图表类型并协助制图,但原始研究数据,包括但不限于数据图表、病理图表、电泳图表和图像处理,不得用于创建、更改或处理;操纵研究过程和结果。图表、照片图表、遗传分析图、实验室结果跟踪、森林图、手术音频和视频等。

GenAI可用于书目格式的标准化检查、书目和文本的自动排序以及自动引文生成。但是,其他作者标记为人工智能生成内容的内容不应被引用为原始文档,真正需要引用的内容应予以解释。

“两不”包括GenAI、其产品和团队不能被署名为论文作者,并且GenAI 不能撰写整篇论文或论文的重要部分(例如,研究方法、结果、解释、等)这包括您无法使用的东西。以及结果分析等)。

论文违反上述规定的,中华医学会将直接拒稿或撤稿,情节严重的,将作者列入学术不端名单,并禁止作者向中华医学会投稿系列。如果作者是期刊审稿人,则禁止其参与同行评审工作。

AI论文引发争论

自去年ChatGPT流行以来,许多学者将其作为撰写论文的重要工具,这一趋势在学术界引发了一系列围绕原创性、学术诚信、道德、法律等方面的争议。和辩论。

一个典型案例是,去年8月9日,一位科学防伪专家在阅读Physica Scripta杂志上发表的一篇SCI论文时,注意到论文第三页上有一个奇怪的短语“Regenerate Response”。我发现了。

如果您使用过ChatGPT,您可能知道术语“重新生成响应”是ChatGPT 中的一个按钮标签(后来更改为“重新生成”)。如果您对AI生成的答案不满意,请按此功能按钮,ChatGPT将重新生成答案。

Physica Scripta 杂志的同行评审和研究诚信负责人Kim Eggleton 后来向该杂志证实,该论文的作者使用了ChatGPT 来撰写论文,并补充道:“这种行为违反了学术规定。”他说。

值得注意的是,从5月论文提交到7月修订版发布的两个月同行评审期间,没有人发现任何问题。

令人担忧的是,这种现象并非独一无二。自去年4月以来,科学打假者已经破获了十几篇利用AI进行诈骗的论文,其中包括一篇来自中国学者的论文,这些论文都存在使用ChatGPT的痕迹。

除了《Regenerate Response》之外,还有几篇直接涉及AI 的论文,例如《作为AI 语言模型,我……》。

这些负面案例表明,ChatGPT 等GenAI 可以生成足以误导期刊审稿人的虚假研究过程、科学摘要和学术文件。

英国研究诚信办公室的研究诚信经理马特·霍奇金森(Matt Hodgkinson) 表示:“一旦作者删除了ChatGPT 的模式短语,就几乎不可能检测到由ChatGPT 高级版本生成的流畅文本。可能吧。”

越来越多的期刊开始注意到这个问题,担心更多的期刊会被发现内容有缺陷或捏造虚假研究。 2023 年1 月,UK 《卫报》(卫报)表示,“数千家科学期刊出版商正在禁止或限制作者使用先进的人工智能聊天机器人提交论文。”

《科学》(科学)杂志主编Holden Thorpe 现在在更新的编辑政策声明中明确禁止使用ChatGPT 生成的文本,并澄清该程序不能被列为作者。

Springer-Nature 出版约3,000 种期刊,在其指南更新中指出,ChatGPT 不能被列为作者。然而,该工具和其他类似工具仍然可以在论文准备中使用,只要在手稿中披露其使用细节即可。

《细胞》 《柳叶刀》等杂志的出版商爱思唯尔也表明了明确的立场。一位相关官员此前对媒体表示,编辑指南“允许使用人工智能工具来提高论文的可读性和语言能力,但有一些重要的任务是作者应该完成的,比如数据解释和科学绘图。”替换内容。”该发言人还表示,作者在使用人工智能工具时,必须提供具体的使用说明。

(更多信息请关注“医学社区”微信公众号yixuejiezazhi,并在手机上下载医学社区医生站APP)

来源:医学界

编辑:田东亮

编辑:赵静

*虽然《医学界》力求发布专业、可靠的内容,但我们不保证内容的准确性,因此,如果您希望将其用作招聘或做出决定的材料,请另行联系相关方进行核实。

版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。

猜你喜欢