35 Matching Annotations
  1. Last 7 days
    1. The depth of recursion becomes a tunable compute axis at inference time, requiring no retraining. A small model, by reading itself, can iterate toward answers that neither it nor any of its workers could reach in a single pass.

      大多数人认为模型的能力受其规模和训练数据的限制,需要更大模型或重新训练才能提升性能。但作者提出小模型通过自我递归调用可以在推理时动态扩展能力,无需重新训练就能达到单个模型无法企及的高度。这挑战了规模即能力的行业共识,暗示小模型可能通过自省机制实现突破性能力。

    1. We separately evaluate GPT‑5.5 Pro in certain cases because we judge that the setting could materially impact the relevant risks or appropriate safeguards posture.

      大多数人认为如果两个模型使用相同的基础架构,它们的风险和安全需求应该相似,但OpenAI明确表示GPT-5.5 Pro需要单独评估,因为'设置可能显著影响相关风险或适当的安全措施立场'。这挑战了AI评估领域普遍认为的'相同基础模型的安全特性一致'的共识,暗示即使是微小的设置变化也可能导致显著不同的风险特征。

    1. Our run-rate revenue has now surpassed $30 billion, up from approximately $9 billion at the end of 2025.

      大多数人认为AI公司仍处于烧钱阶段,难以实现盈利,但Anthropic的收入在短短几个月内增长了三倍多,达到300亿美元的年化收入。这一惊人的增长速度挑战了AI行业普遍亏损的共识,表明AI模型商业化可能比预期更快、规模更大。

    1. The Prompt API uses the Gemini Nano model in Chrome. While the API is built into Chrome, the model is downloaded separately the first time an origin uses the API.

      大多数人认为内置API应该包含所有必要组件,无需额外下载,但作者明确指出模型需要单独下载。这与人们对'内置'API应该即开即用的普遍认知相悖,暗示用户首次使用时可能会面临显著的下载时间和存储压力。

    1. OpenAI can now serve all its products to customers across any cloud provider.

      大多数人认为OpenAI会完全依赖微软Azure云服务,因为微软是其主要投资者和合作伙伴,但作者认为OpenAI现在拥有了多云策略的灵活性,这打破了科技巨头间典型的排他性合作模式,暗示OpenAI正在寻求更大的自主权和市场机会。

    1. As part of its long-running Client Zero initiative, in which NEC serves as its own first customer before offering its technology to clients

      大多数人认为企业会先开发产品然后内部使用,但作者认为NEC采用了反向策略,先内部大规模应用AI技术然后再向客户推广,这表明企业正在采用更激进的方法来验证和改进AI解决方案,挑战了传统的产品开发流程。

    1. The commoditization flywheel : both companies give away complements to drive usage of the core.

      大多数人认为AI公司应该专注于核心产品并保持其专有性,但作者认为AI巨头应该效仿谷歌,通过免费提供互补产品来推动核心产品的使用,这与传统科技公司的护城河策略相悖。

  2. Apr 2026
    1. On a 150-class benchmark, the surrogate fully replaces the teacher

      大多数人认为复杂分类任务需要大型模型才能处理,小型代理模型只能处理简单任务。但作者展示了一个150类复杂任务中,小型代理模型完全能够替代教师模型,这挑战了'越大越好'的主流认知,证明了高效路由的潜力。

    1. Our goal is $10M ARR [annual recurring revenue] with a sub-10 person org.

      大多数人认为高收入公司需要大量员工和复杂组织结构,但作者认为AI可以实现极简组织架构。这挑战了传统商业规模理论,暗示AI可以颠覆企业组织的基本模式,但也可能忽视了人类创造力和判断力的不可替代性。

    1. US tech CEOs believe the best models should stay proprietary, partly so they can recoup enormous training costs and partly out of concern that powerful frontier models could be weaponized. Chinese labs, for their part, are not purely idealistic: Open-source is not only free advertising but also a shrewd workaround.

      大多数人认为开源AI会损害商业利益,增加安全风险,但作者认为中国将开源视为一种精明的商业策略,而非单纯的技术共享。这挑战了西方科技公司对知识产权和商业模式的传统认知,表明开源可以成为构建生态系统和最终实现商业价值的有效途径。

    1. We do not plan to make Claude Mythos Preview generally available, but our eventual goal is to enable our users to safely deploy Mythos-class models at scale.

      大多数人认为强大的AI模型应该广泛普及以造福更多人。但作者明确表示不会公开发布这个最强大的模型,暗示了AI能力扩散可能带来的风险大于收益,这与技术民主化的主流观点相悖。

    1. Zhang, of Alibaba.com, says Accio currently does not include advertising. Suppliers can pay for higher placement in Alibaba.com's regular search results, but Zhang says Accio is 'not integrated' with that system.

      大多数人认为AI工具会不可避免地融入现有的广告和付费推广模式,但作者认为Alibaba有意将AI搜索与付费广告分离。这表明公司可能正在尝试创建一个更公平、更少受商业利益影响的AI推荐系统,这是一个与行业普遍做法相悖的立场。

    1. SOTA models of different architectures and parameter scales exhibit highly consistent failure patterns on the same set of hard samples, suggesting that the performance bottleneck stems from shared deficiencies in training data rather than architecture itself.

      大多数人认为不同架构的模型会有不同的失败模式和弱点,但作者发现无论架构和参数规模如何,SOTA模型在相同困难样本上表现出高度一致的失败模式,这表明性能瓶颈源于训练数据的共同缺陷,而非架构差异,这一发现挑战了模型多样化的传统观点。

    1. The issue isn't that models are bad at reading documents. It's that single-pass extraction has no mechanism to catch its own mistakes, and models get lazy.

      大多数人认为AI模型在文档提取中的低准确率主要是因为模型能力不足或理解能力有限。但作者提出了一个反直觉的观点:问题不在于模型本身,而在于单次提取缺乏自我纠错的机制,导致模型'变懒'。这挑战了对AI能力局限性的传统认知。

    1. The demand for these medications has been the most ferocious thing I have witnessed in my working life, and the hardest parts of running a telehealth company, like finding doctors and fulfilling prescriptions, can be entirely outsourced to platforms like CareValidate and OpenLoop.

      大多数人认为医疗行业监管严格且难以突破,但作者指出GLP-1药物的需求如此之大以至于一个人可以在短短两个月内创建价值数十亿美元的公司,并将医疗服务的核心功能外包。这一观点挑战了传统医疗行业的复杂性认知,展示了AI如何颠覆传统受监管行业。

    2. The consistent argument across the Every Slack was that if cache-breaking usage costs more to serve, make those users pay more: Meter the consumption rather than ban the interface.

      大多数人认为公司应该通过限制特定工具使用来保护自己的利益,但作者认为Anthropic应该按实际使用量收费而非直接禁止OpenClaw,因为这更符合公平原则和平台发展。这种观点挑战了科技公司常见的封闭生态策略,主张更开放的计量模式。

    1. a world model is a model or framework centered on perception, equipped with interaction and long-term memory capabilities, for understanding and predicting the complex world

      大多数人认为世界模型主要是关于预测和模拟物理世界的系统,但作者认为世界模型必须同时具备感知、交互和长期记忆三种核心能力,这挑战了传统上认为世界模型主要是预测系统的观点,因为作者强调理解与预测同样重要。

    2. OpenWorldLib integrates models across different tasks within a unified framework, enabling efficient reuse and collaborative inference.

      大多数人认为不同类型的AI模型需要独立开发和训练,但作者主张通过统一框架实现跨任务的模型集成和协同推理,这挑战了当前AI领域模块化开发的常规做法。这种统一方法可能会带来效率提升,但也面临模型间兼容性和性能平衡的挑战。

    3. we propose a clear definition: a world model is a model or framework centered on perception, equipped with interaction and long-term memory capabilities, for understanding and predicting the complex world.

      大多数人认为世界模型主要关注预测和生成能力,但作者提出世界模型必须同时具备感知、交互和长期记忆能力,这是一个更广泛的定义,挑战了当前AI领域对世界模型的狭隘理解。这种定义扩展了传统预测模型的边界,将交互性和记忆能力作为核心要素。

    1. the trained 4B model exceeding GPT-4.1 (49.4 percent) and GPT-4o (42.8 percent) despite being 50 times smaller

      大多数人认为在复杂任务中,大型语言模型由于其参数量和训练数据的优势,总是能显著超越小型模型。然而,作者展示了他们的方法能让一个小型4B模型在Tau-Bench基准测试中超越GPT-4.1和GPT-4o,这挑战了AI社区对模型规模的普遍信仰。

    2. the trained 4B model exceeding GPT-4.1 (49.4 percent) and GPT-4o (42.8 percent) despite being 50 times smaller

      大多数人认为GPT-4级别的性能需要同等规模或更大的模型才能实现,但作者展示了他们的4B模型不仅超过了GPT-4.1和GPT-4o,而且模型规模只有后者的1/50。这一发现挑战了AI领域中对模型规模的依赖,暗示了算法创新可能比单纯扩大模型规模更有效。

    3. our approach improves Qwen3.5-4B from 63.8 percent to 66.7 percent (+2.9pp) and Qwen3-30B-A3B from 58.0 percent to 69.5 percent (+11.5pp)

      大多数人认为在复杂的多轮任务中,只有大型语言模型才能通过强化学习取得显著进步,但作者展示了即使是较小的4B模型也能通过他们的方法获得实质性提升,而30B模型的提升更是惊人地达到了11.5个百分点,挑战了'规模越大越好'的普遍认知。

    4. the trained 4B model exceeding GPT-4.1 (49.4 percent) and GPT-4o (42.8 percent) despite being 50 times smaller

      大多数人认为AI模型的大小与性能直接正相关,更大的模型必然表现更好。但作者展示了一个仅40亿参数的模型通过强化学习训练后,性能超越了比它大50倍的GPT-4.1和GPT-4o,挑战了当前AI领域'参数规模决定一切'的主流观点。

    1. model alignment alone does not reliably guarantee the safety of autonomous agents.

      大多数人认为模型对齐(alignment)是确保AI系统安全的关键因素,但作者通过实验证明,即使是对齐良好的模型(如Claude Code)在计算机使用代理中也表现出高达73.63%的攻击成功率。这挑战了当前AI安全领域的核心假设,表明仅依赖模型对齐无法解决自主代理的安全问题。

    2. model alignment alone does not reliably guarantee the safety of autonomous agents

      大多数人认为通过模型对齐(alignment)可以有效保证AI代理的安全性,但作者认为这远远不够,因为实验显示即使使用对齐的Qwen3-Coder模型,Claude Code仍有73.63%的攻击成功率。这挑战了当前AI安全领域的主流观点,即单纯依靠模型对齐就能解决安全问题。

    1. Claude 的 Max Pro 账号额度不允许给第三方产品用了,如果你没有使用 Agent SDK 和 Claude Code 为底座的产品,就不能用这个账号里的额度

      大多数人认为云服务提供商的订阅额度应该具有通用性,但 Anthropic 限制额度只能用于特定产品的做法颠覆了这一认知。这种策略实际上是一种'锁定效应',迫使开发者和用户使用其生态系统产品,反映了 AI 服务提供商从开放向封闭的转变趋势,可能成为行业新标准。

    1. In 23 months, the same capability that needed 1.8 trillion parameters now fits in 4 billion parameters. A 450x compression.

      大多数人认为AI模型性能提升主要依靠参数数量增加,但作者认为通过算法优化和人才聚集,AI模型可以实现450倍的参数压缩,这挑战了'更大参数等于更好性能'的行业共识。

    1. The 31B and 26B A4B variants are high-performing reasoning models suitable for both local and data center environments.

      大多数人认为大型语言模型(31B参数)只能在数据中心环境中运行,但作者声称这些模型可以在本地环境中高效运行。这一观点与行业共识相悖,暗示边缘计算能力可能比我们想象的更强大,可能会改变AI部署的格局。

    2. NVFP4 enables 4-bit precision while maintaining nearly identical accuracy to 8-bit precision, increasing performance per watt and lowering cost per token.

      大多数人认为降低模型精度会显著牺牲性能,但作者声称Gemma 4通过NVFP4量化技术实现了4位精度与8位精度几乎相同的准确率。这一反直觉的结论挑战了传统量化会大幅降低模型性能的认知,暗示NVIDIA可能在量化技术方面取得了突破性进展。

    1. Codex-only seats have no rate limits, and usage is billed on token consumption.

      大多数人认为AI服务通常会设置使用限制以控制成本,但作者认为Codex无速率限制的按token计费模式是可行的,因为这提供了更透明的成本结构和更灵活的使用体验,这可能反映了OpenAI对自身技术效率和用户需求的信心。

  3. Aug 2022
  4. Dec 2021