#人工智能 Codex 可以使用 GPT-5.4 并开启 1M 上下文窗口,当上下文超过 272K 时超出部分将按 2X 计算倍率。开发者也可以开启快速模式,快速模式开启后生成速度提升 1.5X,272K 以内按照 2X 倍率计算,超出部分会直接变成普通速度。查看全文:https://ourl.co/112050
这段时间 OpenAI 为鼓励用户使用其编程开发工具 Codex 因此为用户提供双倍配额,如果遇到 Codex 故障的时候 OpenAI 还会重置配额,本周 Codex 团队就因为故障多次重置配额,这倒是让不少开发者或 OpenClaw AI 机器人用户非常开心。
昨天夜里 OpenAI 推出新旗舰模型 GPT-5.4,该模型也已经支持在 Codex 中使用,并且 Codex 还可以通过 /fast 命令开启快速模式,当然开启快速模式也是有代价的。
具体来说现在是等于正常配额状态:
- GPT-5.4 模型最高支持 1M 上下文窗口,更长的上下文窗口有助于提升编码能力。
- 若在 Codex 中使用且上下文超过 272K 时,超出部分将按照 2X 倍率计算配额。
- 开发者还可以使用 /fast 命令启用快速模式,启用后生成速度提升 1.5X,但也按照 2X 倍率计算配额。
所以 OpenAI 提供显示双倍配额但又通过 Codex 消耗双倍配额,这对部分使用频率极高的开发者来说等于配额变成正常状态,这意味着后续使用可能更快触发 5 小时配额限制和当周配额限制。
按照 OpenAI 文档所说,快速模式也只能在 272K 以内使用,按照 2X 倍率计算配额,对于超过 272K 部分将按照标准倍率计算,这或许也是部分开发者开启快速模式后,对于超过 272K 内容感觉响应速度变慢的原因。
![[更新] Codex使用GPT-5.4支持1M上下文 超过272K将按照2X计算倍率](https://img.lancdn.com/landian/2026/02/111836.png)