2 Matching Annotations
  1. Last 7 days
    1. V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off.

      在零LLM模式下仅比有LLM支持的模式低17.3%,这一结果令人震惊。这表明生物启发的记忆架构可能比我们想象的更强大,能够在没有大型语言模型支持的情况下保持大部分性能,挑战了'强大AI必须依赖大型模型'的主流观点。

  2. Apr 2026
    1. Humans abandon wikis because the maintenance burden grows faster than the value. LLMs don't get bored, don't forget to update a cross-reference, and can touch 15 files in one pass. The wiki stays maintained because the cost of maintenance is near zero.

      【启发】这句话精准定位了 LLM 的「比较优势」所在:不是创造力,不是洞察力,而是「永不厌倦的维护」。人类知识库失败的根本原因是维护摩擦——而这恰好是 LLM 最擅长的。这对所有知识密集型组织的启发是:凡是人类会因「太繁琐而放弃」的知识维护任务,都是 LLM 的最佳应用场景。