AI能不能替学者做一次完整的研究?

टिप्पणियाँ · 23 विचारों

学术圈里真正较真的不是论文写没写,而是有没有亲自下场把那件事做完。论文只是把结果呈现出来,真正重要的是过程。实验是不是自己做的、数据是不是自己跑的、判断是不是自己下的。写得再像、再漂亮,只要没

  学术圈里真正较真的不是论文写没写,而是有没有亲自下场把那件事做完。论文只是把结果呈现出来,真正重要的是过程。实验是不是自己做的、数据是不是自己跑的、判断是不是自己下的。写得再像、再漂亮,只要没经历过那个过程,在同行眼里就不算属于自己的真正的研究。

  AI 把这个问题顶到了台面上。不是因为它真的会搞研究了,而是因为它太会把论文写得像论文。这件事本身,就已经让不少人坐立不安。

  多项同行评议的实证研究表明,让 ChatGPT 生成学术文本时,其引用部分存在大量不准确或伪造的条目。例如一项发表于 Scientific Reports 的分析发现 AI 自动生成的引用中约有部分在数据库中无法检索到,GPT-3.5存在约55%伪造,GPT-4存在约18%伪造。

  另一项医学内容研究报告 47% 的引用为完全伪造条目,而仅有极少部分同时真实且准确。

  这些结果提示使用 AI 生成引用时要格外谨慎,并不能默认其输出的参考文献是真实存在的。

  这些不是坊间传说,也不是某教授被举报的八卦,而是顶级期刊公开讨论过的问题。

  问题不在于 AI 会不会犯错,人也会。问题在于:这些错误,根本没有对应的研究过程。没法回溯它是怎么做实验的,因为它没做,也没法复现它的路径,因为那条路径不存在。

  这直接踩中科学研究的一条底线:研究内容,必须能被验证,或者被推翻。

  这叫可证伪性。意思不是非得证明是错的,而是得先说清楚:在什么情况下,愿意承认自己错了。要是一个理论无论发生什么都能自圆其说,那它就不算科学讨论的一部分。

  而 AI 写论文,最大的问题恰恰在这儿:它给的是结果,不是过程本身。我们可以反对一个结论,但反对不了一个没有发生过的实验。因为无从下手。

  再往下说,还有责任问题。这不是抽象伦理,而是学术圈每天都在发生的具体后果。论文一旦发表,论文上写谁的名字,谁就得对里面的内容负责。数据、引用、推理链条,哪怕只是其中一环出问题,追责的对象都很明确。

  AI 不在这个体系里。它不会被撤稿,不会被通报,不会在同行会议上被点名。所有风险,都在签字的人身上。

  可以想象这样一个场景:论文顺利发表,半年后有人发现关键引用不存在。作者解释说是 AI 生成的,但期刊编辑只会看署名那一栏。

  所以,当有人说以后让 AI 写论文就好了,真正的问题其实是:是不是准备为一件自己没完全理解的东西,承担全部后果?

  说到这儿,可能有人会问:那是不是因为现在的 AI 还不够高级?等它再进化一点,就能真正代替学者了?恐怕也没那么简单。

  斯坦福大学2024年的一项研究揭示,大模型在心理学评估中有个倾向:它更在意怎么回答更讨喜,而不是给出真实判断。这种机制让AI写论文变成了安全游戏。结构、语言虽然挑不出毛病,但说的全是学界已经接受的老话,不敢越雷池一步。

  实验显示,不同AI模型给出的答案相似度高达71%-82%,几乎像商量好的一样。说白了,AI只是把现有研究的"平均值"复述了一遍,看似头头是道,实则毫无新意。

  同行评审给出的评价很一致:“正确,但没有任何新东西。”

  现在的 AI 和人类进行科学研究的目标,其实完全不一样。AI想的是尽量少犯错,而科学家追求的是推翻认知、发现新东西。AI能发现数据里的异常,但它不会主动去喜欢这些异常。而历史上最重要的科学突破,往往都是科学家对异常事物念念不忘、偏执追问的结果。这个过程中,科学家会赋予异常意义、承担风险、做价值判断。这些东西,AI是很难做到的。

  AI写的论文能这么逼真,说到底是咱们的学术体系早就被写论文的套路给驯化得很彻底。 现在的评价标准,不就是看格式对不对、语言地道不地道、参考文献齐不齐整吗?这种只拼模仿形式的赛道里,AI这种天生擅长复刻的工具。从某种角度说,AI压根不是学术危机的制造者,顶多算个放大器,它只是把学术圈里原本就存在的问题给放大了。

  那AI写的论文到底有没有学术价值? 要说有用,那肯定有用。整理文献、润色语言、补全格式漏洞,这些活它干得又快又好。

  但要是问能不能替学者完整做一次研究? 答案恐怕还是不行,至少现在还不行。

टिप्पणियाँ
会员免费服务:时刻音乐 时刻云盘 时刻工具箱 时刻标签 时刻工具