V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
neel
V2EX  ›  OpenAI

发现这两天 chatgpt plus 用 codex 的 GPT5.5 现在上下文只有 258K 了吗?

  •  
  •   neel · 1h 30m ago · 291 views

    上个月 claude 降智后,换成 chatgpt plus ,GPT5.5 用起来很爽,而且有 fast 模式,和 ops 一样爽。最近两天感觉也降智了,普通模式慢了很多,经常卡住,上下文也从 1M 跳到了 258K 。

    4 replies    2026-05-09 23:41:43 +08:00
    neteroster
        1
    neteroster  
       1h 27m ago
    codex 订阅的 5.5 一直是 270K 左右上下文,什么时候有 1M 了?
    sampeng
        2
    sampeng  
       1h 26m ago
    啥时候 1M 了的。。我怎么不知道。。一直都是这样大小的。因为 5.5 的压缩比 cc 的要快和效果好,所以并不觉得
    neteroster
        3
    neteroster  
       1h 25m ago
    @neteroster

    另外解释一下,Codex 的 5.5 实际上是 400K 模型上下文,260K 输入,128K 留给输出,还留一点给 compact 。输入 272K 左右最大,这是服务器校验限定死的,本地改也没用。5.4 是 1M ,而 5.5 显然规模更大成本更高,所以从推出开始就没有给满血( API 是满血 1M ),Tibo ( Codex 团队负责人)说后续可能增加
    neel
        4
    neel  
    OP
       29 mins ago
    是我弄错了,codex cli status line 5.5 显示的是 1M,但实际只有 258
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2453 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 16:11 · PVG 00:11 · LAX 09:11 · JFK 12:11
    ♥ Do have faith in what you're doing.