4 Matching Annotations
  1. Last 7 days
    1. tuning a standalone evaluator to be skeptical turns out to be far more tractable

      深刻揭示了LLM自我评价的局限性:生成器难以对自身工作保持批判性。通过解耦生成与评估,并刻意调优独立评估器的“怀疑态度”,能有效打破AI自嗨的闭环。这种对抗式架构是提升输出质量的强效杠杆。

    1. we conduct a systematic evaluation of multiple reasoning models across three scenarios: (1) problems augmented with lengthy, irrelevant context; (2) multi-turn conversational settings with independent tasks; and (3) problems presented as a subtask within a complex task.

      三个测试场景的设计极具现实针对性:场景一对应「RAG 检索塞入大量背景文档」,场景二对应「多轮对话历史积累」,场景三对应「Agent 工作流中的子任务分解」。这三个场景恰好覆盖了当前 AI 产品的主流部署模式——这篇论文实际上是在说:我们正在大规模生产的所有 AI 产品,都可能在不知情的情况下运行着推理能力受损的模型。

  2. Sep 2023
  3. Dec 2022