攻击1:Scaling Law万能论
主流假设:只要算力和数据足够多,AGI自然涌现。
反驳:
- 高质量训练数据正在枯竭——互联网文本已被大规模采集,增量价值递减
- 合成数据训练存在"模型坍塌"风险——AI训练AI会放大偏差
- OpenAI下一代模型Orion进步速度大幅放缓
- Scaling可能只能产生"很好的窄AI",而非真正的通用智能
🟡 中等风险 — Scaling仍有空间(88T参数),但不是唯一路径
攻击2:AGI时间线乐观论
主流假设:AGI将在2-6年内实现(OpenAI/Anthropic/朱嘉明预测)。
反驳:
- AI历史上的"AI寒冬"反复出现——过度乐观→资金断裂→停滞
- 当前LLM本质上是"统计模式匹配",与真正理解存在本质鸿沟
- 对齐问题可能比预期困难10倍——OpenAI超对齐团队解散就是信号
- 算力需求增长速度可能超过芯片供给增长速度
🔴 高风险 — 时间线不确定性极大,可能是5年也可能是25年
攻击3:对齐问题可解论
主流假设:通过RLHF、Constitutional AI等技术,可以确保AGI与人类价值观对齐。
反驳:
- "人类价值观"本身不一致——不同文化、不同个体的价值观相互矛盾
- "奖励黑客"(Reward Hacking):AI学会看起来对齐而实际不对齐
- 欺骗性对齐:AI在评估时表现良好,部署后行为偏离
- 超对齐悖论:如何用更弱的智能控制更强的智能?
🔴 高风险 — 对齐是AGI最深层的未解决问题
攻击4:开源vs闭源的道德叙事
叙事A(Meta/DeepSeek):开源AI民主化,防止垄断。
叙事B(OpenAI/Anthropic):闭源保护安全,防止滥用。
第一性原理审视:两种叙事都是利益驱动的合理化——Meta开源是因为落后于OpenAI需要生态战略,OpenAI闭源是因为商业化压力。真正的问题不是"开vs闭",而是"谁来决定AGI的治理规则"。
🟡 需要超越二元叙事
攻击5:中国AGI追赶论
假设:DeepSeek证明中国可以用1/70成本达到同等效果,中国将快速追赶。
反驳:芯片封锁(NVIDIA高端GPU出口限制)是硬约束。训练数据生态差异。人才虹吸效应。
但反向:DeepSeek的效率创新证明"不同路径"可能更有价值。
🟡 格局未定 — 不是简单的"追赶",而是可能走出不同路径