尽管在学界尚存争议,但使用大语言模型(Large Language Model,LLM)辅助学术写作在如今已日益常态化。

斯坦福大学团队的最新报告就指出,在ChatGPT发布后的短短五个月内,LLMs 已迅速成为许多学者修改和完善论文的重要工具,特别是在计算机科学领域,大约 17% 的摘要,15.3% 的引言使用了大模型参与写作[1]。

打开网易新闻 查看精彩图片

图丨不同领域的学术写作中经由 LLMs 修改的句子的估算比例(来源:arXiv)

而《 科学》(Science)、《细胞》(Cell)等顶级期刊也在此前相继开放绿灯,允许研究者在“方法”部分中明确标注的前提下,使用生成式人工智能和大语言模型辅助论文文本与图像的生成,这标志着 LLM 在学术写作已逐渐被正式接纳和应用。

打开网易新闻 查看精彩图片

图丨《科学》期刊关于在 学术论文写作中使用 AI 的政策变化(来源:Science)

显然,使用 LLMs 辅助论文写作已经越来越成为不可逆转的潮流。那么,与其保持抗拒,我们不如更主动地去思考,如何才能更好地利用这些技术来提高自己科研产出的效率。

近日,葡萄牙天主教大学助理教授德里琼-格鲁达(Dritjon Gruda)发表于Nature Career Column的专文为这一问题提供了指引[2]。

打开网易新闻 查看精彩图片

图丨相关文章(来源:Nature Career Column)

格鲁达教授认为,LLMs 对科研写作有益与否的关键在于使用它的方法,其真正价值并不在于完全依靠它生成文本,而是在于利用这些工具,将其与个人专业知识来相结合起来,共同提升产出的质量。这种互动不仅有益于完善写作论述的内在逻辑,也能帮助提升我们简化复杂表述的能力。

首先在学术写作方面,LLMs 作为高效的文本润色工具,其效能取决于充足的语境信息供给。

当我们利用 LLMs 优化论文某部分时,首先要做的是向模型提供 文章的语境背景,包括核心论点、研究领域或只是其关键要点,从而帮助 AI 理解任务的具体情境,然后再将这些信息呈现给我们所使用的生成式 AI。

至于具体模型的选用,虽然OpenAI的 ChatGPT 因其广泛适用性往往是首选,但对于需要精准把握语言微妙差异的任务,比如分析检索问题或文本,Google 的Gemini模型表现要更好一点。如果需要在离线情况下使用生成式 AI,那么 Mixtral 的开源LLM则是更为理想的选择。而对于中文的学术写作,或许国内各类大模型的表现会更为出色。

但无论我们选择哪种大模型,核心还是在于提供足够精确的指令。越明确的指令往往能产出更理想的成果。

例如,我们可以设定指令为:“我正在为一本顶尖【学科】学术期刊撰写一篇关于【主题】的论文。我在下面这一段尝试表达的是【具体观点】。请重新表述,以便于清晰、连贯和简洁,并确保每个段落自然过渡到下一个段落。去掉行话。使用专业语气。”

我们对一篇已发布表的文献(arXiv:2404.17524)中的文段稍加修改,使其缺乏连贯性和明晰性,借这段文字来演示一下上述方法的效果。

打开网易新闻 查看精彩图片

原网页为英文,为了方便描述用工具 翻译成中文,内容或有不准确的情况(来源:络绎科学)

可以看到,相较原有内容,经过 AI 优化后的文本展现出了更高的专业性,在语言表述和逻辑上也流畅许多。

这种方法也可以用于回应审稿人意见。

但与 AI 对话的第一次回复可能并不完美,我们需要不断地进行优化和迭代。通过细化指令或添加更多有效信息,才能不断改善结果。

如果有些地方修改得不太到位,我们可以直接指出:“这还不是我想要的意思。请调整这部分。”或者,我们也可以认可其改进,促使理解正确的修改方式:“现在清楚多了,但还需要调整结尾部分,以便与下一部分有更紧密的衔接。”

这一过程可以将繁复的写作转化为可控的迭代过程,通过引入 AI 的视角丰富文本内容,使之蕴含超出作者当前认知的见解。从而,AI 能成为一种启发思维的对话伙伴,而非代替作者创作或担任评审角色。

其次,生成式 AI 也能为同行评审提供帮助。

实际上,此前斯坦福团队的另一项研究就表明,ICLR2024(International Conference on Learning Representations,国际表征学习大会)、NeurIPS(Conference and Workshop on Neural Information Processing Systems, 神经信息处理系统大会)等 AI 顶会的同行评审就有 16.9% 是由 ChatGPT 生成[3],大语言模型实际上已经渗入了学术写作与出版的各个环节。

打开网易新闻 查看精彩图片

图丨ICLR 2024 同行评审中大概率由人工智能生成的词汇的出现频率变化(来源:arXiv)

但由于涉及隐私问题,目前学界对于在评审环节使用这一工具态度要更为谨慎,例如《科学》明确要求“审稿人不得使用人工智能技术来生成或撰写审稿,因为这可能会违反稿件的机密性”。因此,若要在评审环节使用 AI,那么其方法也要进行调整。

格鲁达建议,审稿人应在全面阅读稿件后,概括关键点与反馈要点,随后让 AI 辅助组织和表达这些反馈,注意避免直接上传原始稿件以保护隐私。

具体操作上,我们可以这样引导 AI:“假设你是拥有 20 多年【领域】学术经验的专家和资深学者。根据我对【领域】一篇论文的摘要,其主要焦点是【主题】,按照以下顺序提供对该论文的详细评审:1)简要讨论其核心内容;2)识别其局限性;3)按重要性顺序解释每个局限性的意义。始终保持简洁和专业的语气。”

文章认为,与 AI 的协作实际上具有丰富的可能性,这些工具经常能提供一些我们意料之外的视角。

例如,ChatGPT 擅长解释和证明审稿人在评审中发现的具体局限性的原因,这有助于我们理解研究贡献的更广泛内涵。如果我们能识别出方法上的局限性,ChatGPT 则可以详细阐述这些局限性并提出在修订中克服它们的方法,帮助我们将局限性及其对论文整体贡献的影响联系起来。

但要注意的是,AI 的建议并不一定完全正确,因此最终的评审责任始终在于审稿人自身,他必须能够区分事实与非事实,没有任何 AI 能可靠地做到这一点。

此外,LLMs 在期刊的编辑工作中也具有很高的实用价值。

对 编辑们来说,向作者提供建设性的编辑反馈并非易事,尤其是当他们同时审核多篇稿件时,往往很难给每位投稿人给予一个足够清晰而充分的反馈,但这显然也是投稿人们并不乐于见到的。

而生成式 AI 恰恰能在这个过程中发挥作用,帮助编辑编写出更为精确而具有人情味与建设性的意见,并且也不会僭越人类编辑的核心决策角色。

在实践中,编辑在完成论文评估并列出优缺点后,就可通过如下方式引导 AI:“基于这些信息,给作者起草一封信。突出手稿的关键问题,并清楚地解释为什么尽管手稿的主题很有趣,但可能没有提供足够的进展以值得发表。避免使用行话,直接表达。始终保持专业和尊重的语气。”

当然,这也可能需要几次迭代才能使语气和内容恰到好处。

总而言之,巧妙地在学术写作中融入 AI 技术,无疑是提升科研发表效率的一大助力。而驾驭这股力量的关键,在于我们如何善用 AI ,使其作为辅助思想的工具,确保技术为我们的创造力服务,而不是让我们的思维被技术所束缚。

参考文献:

[1].https://doi.org/10.48550/arXiv.2404.01268

[2].https://www.nature.com/articles/d41586-024-01042-3#author-0

[3].https://doi.org/10.48550/arXiv.2403.07183

本文内容不代表平台立场,不构成任何投资意见和建议,以个人官网/官方/公司公告为准。