1 Matching Annotations
  1. Apr 2026
    1. Testing universal jailbreaks for biorisks in GPT‑5.5

      大多数人认为AI安全测试应专注于防止有害内容生成,但OpenAI主动邀请研究人员寻找'通用越狱方法'来突破生物安全限制,这挑战了传统安全思维,表明他们认为主动寻找漏洞比被动防御更有效。