AI-Scientist-v2 通过同行评审:科学家会被 AI 取代吗?

当 AI 开始独立完成科学研究,我们该兴奋还是担忧?

里程碑事件

2026 年 3 月,科学界迎来一个标志性时刻:

首个完全由 AI 生成并通过同行评审的研讨会论文诞生。

📌 项目地址SakanaAI/AI-Scientist-v2
GitHub 数据:3,150 stars,今日 +507

这不是普通的 AI 写作工具。AI-Scientist-v2 完成了科学研究的全流程

  • 假设生成
  • 实验设计
  • 代码编写与执行
  • 数据分析
  • 论文撰写
  • 论文被 ICLR 2025 Workshop 接受,通过双盲评审——评审者并不知道作者是 AI。

    AI 能做什么?不能做什么?

    AI 擅长的

    能力 说明
    文献综述 快速阅读大量文献,提取关键信息
    假设生成 基于已有知识提出新假设
    实验执行 自动编写和运行代码
    数据分析 统计分析、可视化
    论文撰写 生成结构化手稿

    AI 仍然欠缺的

    能力 为什么重要 AI 的困难
    创造力 提出真正新颖的想法 难以跳出训练数据分布
    直觉 判断哪个方向值得探索 难以量化决策过程
    跨领域联想 从其他学科获得灵感 需要更广泛的知识整合
    伦理判断 判断研究的社会影响 缺乏价值观和情境理解

    技术实现

    核心架构

    AI-Scientist-v2 工作流程示意

    class AIScientist:

    def __init__(self, domain):

    self.domain = domain

    self.llm = OpenAI() # 或 Gemini、Claude

    def generate_hypothesis(self, literature):

    """基于文献生成研究假设"""

    prompt = f"基于以下文献,提出创新研究假设:\n{literature}"

    return self.llm.generate(prompt)

    def design_experiment(self, hypothesis):

    """设计实验验证假设"""

    return self.llm.generate(f"设计实验验证:{hypothesis}")

    def execute_experiment(self, design):

    """执行实验代码"""

    code = self.llm.generate(f"编写实验代码:{design}")

    exec(code) # 在沙盒环境执行

    return results

    def write_paper(self, results):

    """生成完整论文"""

    return self.llm.generate(f"基于结果撰写论文:{results}")

    与 v1 的关键差异

    维度 AI-Scientist-v1 AI-Scientist-v2
    模板依赖 需要人工编写的模板 ✅ 移除模板依赖
    领域范围 特定领域 ✅ 跨机器学习领域泛化
    搜索策略 预定义流程 ✅ Agentic Tree Search

    观点:AI 是「加速器」而非「替代者」

    从”执行者”到”指挥者”

    传统科学家的一天:

    读论文 → 提出假设 → 设计实验 → 写代码 → 跑实验 → 分析数据 → 写论文
    

    (大部分时间在执行)

    AI 时代的科学家:

    提出关键问题 → 设定研究边界 → 评估 AI 输出 → 做关键决策
    

    (聚焦真正重要的事)

    人机协作新模式

    人类科学家                   AI-Scientist
    

    ┌──────────────┐ ┌──────────────┐

    │ 提出问题 │ ────────▶ │ 文献检索 │

    │ 设定方向 │ │ 假设生成 │

    │ 评估假设 │ ◀──────── │ 实验设计 │

    │ 决策取舍 │ │ 代码执行 │

    │ 把控质量 │ ◀──────── │ 数据分析 │

    │ 撰写核心论证 │ │ 论文初稿 │

    └──────────────┘ └──────────────┘

    学术伦理需要同步进化

    三个关键问题

    1. 作者署名

    AI 应该被列为作者吗?

    我的观点:不应该。AI 是工具,不是责任主体。论文的责任人必须是人类。
    2. 同行评审

    评审者有权知道作者是 AI 吗?

    我的观点:应该透明披露。双盲评审的目的是消除偏见,而不是隐藏方法论。
    3. 学术评价

    AI 生成的论文如何计算贡献?

    我的观点:评价体系需要更新。不能简单统计论文数量,而要看人类科学家的判断和决策质量

    安全警告与边界

    AI-Scientist-v2 的官方文档中有这样的警告:

    ⚠️ 此代码库将执行 LLM 编写的代码,存在使用危险包、不受控的网络访问、产生意外进程等风险。

    这提醒我们:AI 科学的边界需要谨慎设定

    安全运行方式(在 Docker 沙盒中)

    docker run -it --rm \

    -v $(pwd)/output:/output \

    -e OPENAI_API_KEY=$OPENAI_API_KEY \

    ai-scientist-v2:latest

    给科研工作者的建议

    如何与 AI 协作?

  • 从”跑实验”转向”设计实验” – 让 AI 执行,你来决策
  • 聚焦创新性思考 – AI 擅长执行,人类擅长定义问题
  • 把控质量边界 – AI 的输出需要人类审核
  • 拥抱透明度 – 在论文中披露 AI 使用情况
  • 需要警惕什么?

  • ❌ 过度依赖 AI 生成内容
  • ❌ 放弃批判性思维
  • ❌ 忽视伦理边界
  • ❌ 隐瞒 AI 参与程度
  • 结语

    AI-Scientist-v2 通过同行评审,不是科学家终结的开始,而是科学方法进化的起点

    AI 能够自动化科研流程中的执行部分,但科学的核心——好奇心、直觉、创造力——仍然是人类的特权

    未来的科学家,不是那些能跑最多实验的人,而是那些能提出最重要问题的人。

    AI 提速,人类领航。

    📚 参考资料

    数据项 来源
    AI-Scientist-v2 项目 https://github.com/SakanaAI/AI-Scientist-v2
    ICLR 2025 Workshop 官方会议
    UBC + Oxford 合作 学术机构
    SakanaAI 官方文档 项目 README

    本文基于公开资料整理,观点仅代表作者个人。
    你如何看待 AI 参与科学研究?欢迎在评论区讨论。

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注