上个月 claude 降智后,换成 chatgpt plus ,GPT5.5 用起来很爽,而且有 fast 模式,和 ops 一样爽。最近两天感觉也降智了,普通模式慢了很多,经常卡住,上下文也从 1M 跳到了 258K 。
1
neteroster 1h 27m ago
codex 订阅的 5.5 一直是 270K 左右上下文,什么时候有 1M 了?
|
2
sampeng 1h 26m ago
啥时候 1M 了的。。我怎么不知道。。一直都是这样大小的。因为 5.5 的压缩比 cc 的要快和效果好,所以并不觉得
|
3
neteroster 1h 25m ago
@neteroster
另外解释一下,Codex 的 5.5 实际上是 400K 模型上下文,260K 输入,128K 留给输出,还留一点给 compact 。输入 272K 左右最大,这是服务器校验限定死的,本地改也没用。5.4 是 1M ,而 5.5 显然规模更大成本更高,所以从推出开始就没有给满血( API 是满血 1M ),Tibo ( Codex 团队负责人)说后续可能增加 |
4
neel OP 是我弄错了,codex cli status line 5.5 显示的是 1M,但实际只有 258
|