全球科研人员常用的预印本平台arXiv近日宣布,将进一步加强对AI生成内容的监管力度。根据最新修订的行为准则,所有论文作者无论采用何种方式完成内容创作,均需对最终成果承担全部责任。若发现作者未对大语言模型生成的内容进行实质性核查,将面临为期一年的投稿禁令,且解除禁令后首次提交的论文必须通过同行评审程序。
平台负责人托马斯·G·迪特里希特别指出,执法过程中将重点关注两类违规迹象:一是论文中存在虚构参考文献或模型残留的元评论,二是包含明显未删除的AI提示语。例如"此处应撰写200字摘要"这类指令性文字,或《日本经济新闻》此前在17篇论文中发现的"仅给予正面评价"等操纵性提示,均被视为判定违规的重要依据。这种调整源于平台检测到计算机科学领域AI生成内容呈指数级增长,仅半年前该平台就已针对综述类论文实施过类似管控措施。
学术界对这项新规反应不一。支持者认为严格的问责机制有助于维护学术诚信,但也有研究者担忧执行过程中可能出现双重标准。部分学者特别指出,通过添加虚假共同作者来规避审查的风险正在上升,这可能催生新的学术不端形式。据科技媒体The Decoder分析,此次规则升级与近期多起AI审稿工具被恶意操控事件存在直接关联,平台方试图通过前置审查机制构建更可靠的学术生态。






