特别说明:本文由学研汇技术中心原创撰写,旨在分享相关科研知识。因学识有限,难免有所疏漏和错误,请读者批判性阅读,也恳请大方之家批评指正。未来与现存问题
科学是通过语言来传播的。科学语言的媒介是多模式的,从课堂上的讲座,到科学家之间的非正式日常讨论,再到会议上的准备发言,最后,到科学传播的顶峰,正式的同行评议出版物。由人工智能(AI)驱动的语言工具的出现(如ChatGPT)在全球引起了极大的兴趣。截至2023年1月底,ChatGPT在短短两个月内就拥有超过1亿的活跃用户,创下了历史上任何应用程序中用户基数增长最快的记录。ChatGPT只是众多基于人工智能的语言工具中的第一款,还会有更多。世界各地的许多科研人员和大学都对ChatGPT改变科学传播的潜力表示担忧,但还没有大量实验验证它生成的文本实际上是正确的。ChatGPT生成的文本结构类似于人类,会欺骗读者,让他们相信它是人类生成的。然而,现在很明显,生成的文本可能充满错误,可能产生错误的期刊引用和推断,有时甚至会做出无意义和错误的连接。有鉴于此,加拿大阿尔伯塔大学Jillian M. Buriak教授等多名学者联合准备了一份关于ChatGPT的一些优点和缺点的简要总结,并为科学家在研究的任何阶段(特别是在手稿写作阶段)使用这些工具时提出了一套最佳实践建议的社评。ChatGPT目前只是一个通过语言连接生成文本的高效语言机器人。在几年内,几乎可以肯定地看到ChatGPT就像一台来自20世纪80年代的老式计算机未来将会大有作为。但必须认识到: ChatGPT依赖于其现有的数据库和内容,未能包括最新发布或发布的信息,从而限制了其实用性。因此,就评论和观点而言,ChatGPT是有缺陷的,因为它缺乏科学家所期望拥有的分析能力和提供信息的经验。论文以《Best Practices for Using AI When Writing Scientific Manuscripts》题发表在ACS Nano上。
当然,目前人工智能驱动的语言机器人也有一定优势,其可以:
1)在写作时,人工智能驱动的语言机器人可以帮助你打破思维僵局。有一些文本可以帮助作者克服提高工作效率的激活障碍。但要意识到这个起点可能会在精神上把你固定在某种思维和写作方式上,所以不要让这篇文章限制了你的创造力和洞察力。更好的方法可能是在完成草稿后使用ChatGPT,以提供补充的视角来确定是否遗漏了关键主题或要点,并激发新的想法和方向。
2)在适当的提示下进行有趣的类比,并在不同的概念和想法之间产生看似创造性的联系,但需要进行现实检查,以确保它们是合理或可信的。
3)有效地用于改进稿件的标题、摘要和结论,并使其与期刊参数相匹配,更好地匹配其范围或读者。
4)识别传统文献检索可能遗漏的特定主题的参考文献,必须仔细阅读或浏览,以确保它们是正确和相关的。
5)通过将一个困难的主题分解成更小的部分来指导写作结构。然而,机器人可能会提出糟糕的建议,所以在这样做时需要谨慎。
6)为非英语母语人士的作文创造公平的竞争环境。
7)通过提醒作者他们没有考虑到的方面,完善报道主题的全面性。
8)以一种结构化的、易于消化的方式,在一个人不太熟悉的领域提供知识。然而输出可能是不完整的或缺乏创造性的见解。
9)为Python和其他计算机语言开发代码。
人工智能语言机器人无法理解新信息、产生见解或深入分析,这将限制科学论文中的讨论。虽然大多时候人工智能语言机器人看起来表述得很好,但结果是肤浅的,过度依赖输出可能会压制整个科学事业的创造力。人工智能工具足以反刍传统智慧,但不适用于识别或产生独特的结果,无法辨别信息的真假,降低未来创造性科学突破的频率。目前现存以下问题:
1)快速和容易使用,但如果不能负责任地和小心地使用它,会产生各种bug。
2)被用来编写和取代批判性思维和全面的文献综述,对用户不利。对于学生来说,他们的第一份手稿的写作是一次变革性的训练经历。过度依赖这些语言机器人剥夺了他们的机会,限制了他们的智力增长和自信。
3)如果不作为创造性科学的起点,就会导致平庸、千篇一律和无趣的科学。难以在一个独特的结果是虚假的、反常的还是开创性的方面。
4)在没有阅读支持作者主张的实际论文的情况下使用。ChatGPT可以虚构引用或虚假关联。所有输出都需要严格审查,以防止错误、遗漏关键信息或做出不相关的声明。
5)未能提供有争议话题的双方,特别是在没有用户输入的情况下。ChatGPT不能表达创造性概念。
6)继承科学事业固有的偏见和谬误。它可以压制少数人质疑或反对已确立的概念或对科学现象的解释的观点,或者忽略由于内在偏见而引起的引用较少的作品。
7)生成不具有前瞻性的文本,因为它可能在没有用户干预的情况下总结共识,缺乏对一个领域发展方向的深思熟虑的见解。
8)导致在故事情节和前瞻性讨论中缺乏细微差别的观点、叙述和评论的提交增加。
9)产生不正确或最近显示为错误的输出。
10)在临床相关发现的报告方面存在重大挑战,需要结果报告的透明度、试验设计的清晰沟通和其他信息,使用ChatGPT可能需要大量的监督和公开。
对人工智能语言机器人进行科学交流的建议:
1)在致谢和实验部分确认您使用AI机器人/ChatGPT来准备您的手稿。明确指出稿件的哪些部分使用了语言机器人的输出,并在支持信息中提供提示和问题。2)提醒你的合著者和自己,ChatGPT模型的输出充其量只是一个非常早期的草案。输出是不完整的,可能包含不正确的信息,每个句子和语句都必须严格考虑。检查,检查,再检查。然后再检查一次!3)不要逐字逐句地使用ChatGPT的文本。机器人也可能会重复使用其他来源的文本,导致无意的抄袭。4)人工智能机器人/ChatGPT推荐的任何引用都需要与原始文献进行验证,因为已知机器人会产生错误的引用。5)不包括ChatGPT或任何其他基于人工智能的机器人作为合著者。6)它不能产生新的想法或基于新的结果进行讨论,因为这是我们作为人类的领域。它只是一个工具,像许多其他程序一样,帮助制定和编写手稿。7)ChatGPT不会对任何声明或违反道德的行为负责。就目前的情况而言,所有手稿的作者都负有这一责任。8)不要让ChatGPT压制你的创造力和深度思考。用它来拓展你的视野,激发新的想法!
总结
总之,科学是建立在荣誉体系之上的。虽然现在有工具可以识别ChatGPT生成的文本,但这些人工智能语言机器人将在性能和复杂性方面继续改进,因此审查它们的使用将越来越困难。请非常小心地使用这些工具,并在撰写自己的手稿时提醒您的同事和合著者注意事项和最佳实践。科学论文依赖于人类生成的数据和解释,科学故事需要创造力和知识,这很难用基于人工智能的语言机器人来复制。小编也试用过ChatGPT用于交流和论文的修改,使用的过程中确实存在各种问题,目前他还只是襁褓中的婴儿,只会牙牙学语,但是小编坚信,ChatGPT也是科研产物,未来必定将服务于科研,一定会长大成人,具有自己的判断与创造性,一起期待吧!Jillian M. Buriak et al. Best Practices for Using AI When WritingScientific ManuscriptsCaution, Care, and Consideration: Creative Science Depends on It. ACS nano (2023).DOI:10.1021/acsnano.3c01544https://doi.org/10.1021/acsnano.3c01544