AI安全验证本质不完整:柯尔莫哥洛夫复杂性证明无有限验证器可证明所有安全AI系统

Available in: 中文
2026-04-07T22:44:09.716Z·1 min read
研究人员证明了AI安全验证受制于内在的信息论限制——与计算资源无关。该结果对AI治理和监管具有深远影响。

研究人员证明了AI安全验证受制于内在的信息论限制——与计算资源无关。该结果对AI治理和监管具有深远影响。

关键结果

对于任何固定的可靠可计算枚举验证器,存在一个复杂性阈值,超过该阈值后,真正的策略合规实例无法被证明。没有有限的形式验证器能证明所有任意高复杂性的策略合规实例。

为什么重要

这不是实际限制("计算不够"),而是根本性的数学不可能——类似于数学中的哥德尔不完备定理:

对AI监管的影响

  1. 监管现实 — 完美的安全验证在数学上不可能
  2. 基于风险的方法 — 监管必须承认固有不确定性
  3. 携带证明的代码 — 实例级正确性保证变得更有价值
  4. 纵深防御 — 需要多种重叠的安全方法

与Glasswing的联系

这一理论结果与Anthropic的Glasswing项目同日公布。Glasswing用AI发现漏洞,而本文证明AI安全的正式验证具有理论天花板——攻击能力(不断进步)与防御验证(有理论上限)之间形成张力。

↗ Original source · 2026-04-07T00:00:00.000Z
← Previous: Iranian Citizens Form Human Chains to Protect Power Plants and Bridges as Conflict IntensifiesNext: MemMachine: Open-Source Ground-Truth-Preserving Memory System Achieves 93% Accuracy on Long-Term Agent Memory Benchmarks →
Comments0