Nature认定的论文综述神器来了
天下苦假引用久矣
闻乐 发自 凹非寺
量子位 | 公众号 QbitAI
AI写论文这事儿确实不新鲜了,但天下苦假引用久矣。
以往咱用大模型写个综述,看着像模像样的,结果一查参考文献——
好家伙,论文不存在、期刊不存在、作者也不存在(扶额)。
现在不用愁了,Nature新发表了一篇研究,艾伦人工智能研究所(Ai2)和华盛顿大学开源了一个叫OpenScholar的AI系统,写文献综述绝不瞎编。

背靠整整4500万篇科学论文库,直接把GPT-4o那种78%-90%的虚假引用率给干翻了。
那么问题来了,大家都在编,OpenScholar为啥不编?
自我反馈推理
其实主要还是因为LLM的底层逻辑就是预测下一个词出现的概率。
当你问它一个非常生僻的学术问题时,它为了维持语言的连贯性以及“我无所不知”的人设——
会强行根据语料库里的作者名、期刊名、标题关键词,拼凑出一个看起来最像真论文的…幻觉产物。
还有,通用AI缺乏事实锚点,读过万卷书结果全记串了。
张教授写过超导,李教授写过材料,当你问它超导材料时,它能面不改色地给你编出一篇《张教授与李教授关于超导材料的巅峰对话》……
这种由于训练数据截断以及缺乏真实文献验证机制导致的假引用,真的太太太离谱了!

OpenScholar就不一样了,不再拍脑门预测下一个词,直接接入了一个名为ScholarStore的庞大数据库。
这是目前公开的最大科学领域段落索引,全开源可下载,任何人都能本地部署或者扩展。
里面实打实地存了4500万篇论文的全文和摘要,再通过RAG技术,让每个知识点都背靠一篇真实存在的论文。
当你抛出一个科研难题,它会先在那个拥有2.37亿个向量嵌入的超大数据库里疯狂检索,把相关的论文片段全翻出来。
给出初稿之后,带着生成的“这里缺少讨论”“这里引文不准”“需要补搜最新进展”等反馈再检索、再改稿,通过搜索、生成、自我审查、再搜索、再修正这套闭环,反复确认输出的内容是不是真有论文支撑。
这样一来显著降低了幻觉,提高了输出内容的覆盖度和引文精度,整个管道还会被用来生成高质量合成数据,反哺训练。

有多强?
但是!如果只是搜得准,那它充其量是个高级搜索引擎,OpenScholar不止如此。
它在知识合成的深度上,已经开始正面硬刚人类专家了。
研发团队整了个叫Scholar QABench的测试集,涵盖了计算机科学、物理、生物医药等最吃逻辑的领域,由3000个问题和250个长篇专家答案构成。
在自动测评上,OpenScholar-8B这个体量不算大的模型,在正确性上GPT-4o高出5%,比专业的PaperQA2也高出7%,引文准确度和人类专家持平。

团队还搞了个“人机大战”双盲实验,把AI写的答案和实打实的博士、研究员写的答案放一起,然后让另一群顶级科学家来盲评打分。
16位专家两两对比了108份学术答案。结果显示,OpenScholar-8B的回答有51%比人类研究者亲手写的更好,升级组合版的OpenScholar-GPT4o胜率更是冲到70%,而普通GPT-4o只有32%。
评审专家们普遍反馈,OpenScholar的优势集中在信息覆盖更全面、结构更清晰、逻辑连贯性更强,实用价值也更高。
作者团队
这篇研究的一作Akari Asai是艾伦人工智能研究所研究科学家,2026年秋起将任卡内基梅隆大学助理教授。
在此之前她获得了东京大学电气工程与计算机科学专业的学士学位,后在华盛顿大学完成博士学业,研究聚焦于自然语言处理和机器学习,尤其侧重于大型语言模型。

Jacqueline He目前在华盛顿大学读自然语言处理专业博士,本科毕业于普林斯顿大学,曾是普林斯顿自然语言处理小组成员,主要导师是陈丹琦。
读研之前,她还担任过Meta的软件工程师。
Rulin Shao本科毕业于西安交通大学,取得了数学的学士学位,后在卡内基梅隆大学完成了机器学习硕士学位,现为华盛顿大学博士生,同时也是Meta的访问研究员。

团队的其他作者均来自伊利诺伊大学厄巴纳 – 香槟分校、卡内基梅隆大学、Meta、北卡罗来纳大学教堂山分校、斯坦福大学等高校和机构。
论文地址:https://arxiv.org/abs/2411.14199
- 有的AI在算命,有的AI在救命2026-02-07
- GPT-5.3上线Codex!OpenAI回应Claude新模型只用了15分钟2026-02-06
- Claude一个插件吓哭华尔街,软件公司集体暴跌,2万亿元一日蒸发2026-02-05
- 猝不及防,Adobe关停2D动画软件Animate拥抱AI!最惨学生:一学期的课白上了2026-02-03



