[更新] Codex使用GPT-5.4支持1M上下文 超过272K将按照2X计算倍率
好,我现在要帮用户总结这篇文章的内容,控制在100字以内。首先,我需要仔细阅读文章,抓住主要信息。 文章主要讲的是OpenAI推出了新的GPT-5.4模型,并且在Codex中使用。Codex支持1M的上下文窗口,这对编码能力有帮助。当上下文超过272K时,超出部分会按2倍计算配额。开发者可以开启快速模式,生成速度提升1.5倍,但同样按2倍计算配额。不过,快速模式只能在272K以内使用,超过后就恢复正常速度。这些变化可能会影响高频用户的配额使用。 接下来,我需要把这些信息浓缩成一段话,不超过100字。要注意不要遗漏关键点:GPT-5.4、Codex、1M上下文窗口、272K阈值、双倍配额、快速模式及其限制。 可能的结构是先介绍模型和功能,再说明配额计算方式和快速模式的影响。确保语言简洁明了。 最后检查字数是否符合要求,并确保内容准确传达原文的核心信息。 </think> OpenAI 推出 GPT-5.4 模型并集成至 Codex 开发工具中,支持 1M 上下文窗口以提升编码能力。若上下文超过 272K,则超出部分按 2X 倍率计算配额。开发者可启用 /fast 命令开启快速模式(生成速度提升 1.5X),但仅在 272K 内按 2X 计算配额,超出部分恢复标准速度。 2026-3-6 09:10:18 Author: www.landiannews.com(查看原文) 阅读量:9 收藏

Ad

Ad

#人工智能 Codex 可以使用 GPT-5.4 并开启 1M 上下文窗口,当上下文超过 272K 时超出部分将按 2X 计算倍率。开发者也可以开启快速模式,快速模式开启后生成速度提升 1.5X,272K 以内按照 2X 倍率计算,超出部分会直接变成普通速度。查看全文:https://ourl.co/112050

这段时间 OpenAI 为鼓励用户使用其编程开发工具 Codex 因此为用户提供双倍配额,如果遇到 Codex 故障的时候 OpenAI 还会重置配额,本周 Codex 团队就因为故障多次重置配额,这倒是让不少开发者或 OpenClaw AI 机器人用户非常开心。

昨天夜里 OpenAI 推出新旗舰模型 GPT-5.4,该模型也已经支持在 Codex 中使用,并且 Codex 还可以通过 /fast 命令开启快速模式,当然开启快速模式也是有代价的。

[更新] Codex使用GPT-5.4支持1M上下文 超过272K将按照2X计算倍率

具体来说现在是等于正常配额状态:

  1. GPT-5.4 模型最高支持 1M 上下文窗口,更长的上下文窗口有助于提升编码能力。
  2. 若在 Codex 中使用且上下文超过 272K 时,超出部分将按照 2X 倍率计算配额。
  3. 开发者还可以使用 /fast 命令启用快速模式,启用后生成速度提升 1.5X,但也按照 2X 倍率计算配额。

所以 OpenAI 提供显示双倍配额但又通过 Codex 消耗双倍配额,这对部分使用频率极高的开发者来说等于配额变成正常状态,这意味着后续使用可能更快触发 5 小时配额限制和当周配额限制。

按照 OpenAI 文档所说,快速模式也只能在 272K 以内使用,按照 2X 倍率计算配额,对于超过 272K 部分将按照标准倍率计算,这或许也是部分开发者开启快速模式后,对于超过 272K 内容感觉响应速度变慢的原因。


文章来源: https://www.landiannews.com/archives/112050.html
如有侵权请联系:admin#unsafe.sh