OpenAI推出实时编程模型GPT-5.3-Codex-Spark 提供秒级实时响应快速编写代码
好的,我现在需要帮用户总结这篇文章的内容,控制在100字以内。首先,我得通读全文,抓住主要信息。 文章主要讲OpenAI推出了GPT-5.3-Codex-Spark模型,这是第一个专为实时编程设计的AI模型。它支持秒级响应,适合开发者实时协作,比如边写代码边调整。目前只对ChatGPT Pro用户开放,后续会扩展。 接下来,我需要提取关键点:模型名称、用途、优势、当前状态和未来计划。然后把这些信息浓缩成一句话,确保不超过100字。 最后,检查语言是否简洁明了,没有冗余。这样用户就能快速了解文章的核心内容了。 </think> OpenAI推出实时编程模型GPT-5.3-Codex-Spark,支持秒级响应和实时协作,专为开发者设计。目前仅供ChatGPT Pro订阅用户研究预览。 2026-2-13 04:52:11 Author: www.landiannews.com(查看原文) 阅读量:1 收藏

推广

推广

#人工智能 OpenAI 推出实时编程模型 GPT-5.3-Codex-Spark,能够提供秒级响应开发者需求并给出代码,不需要开发者等待。该模型目前仅供 ChatGPT Pro 订阅用户进行研究预览,设计重点就是缩短响应时间并让开发者可以实时协作,后续将逐渐开放给更多用户。查看全文:https://ourl.co/111836

OpenAI 日前宣布在 GPT-5.3-Codex 的基础上推出 GPT-5.3-Codex-Spark 研究预览版,该模型也是 OpenAI 首个专门为实时编程而设计的人工智能模型。

Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,今年 1 月份双方宣布合作时就提到要做低延迟推理,这个新模型在 Cerebras 晶圆级引擎 WSE-3 上运行,推理速度每秒超过 1000 个 token。

简单来说就是后续开发者使用 Codex-Spark 进行编程任务时,模型几乎会实时响应开发者的指令并做到秒回,不需要开发者盯着屏幕发呆直到模型返回代码。

目前 Codex-Spark 以研究预览版的形式面向 ChatGPT Pro 订阅用户开放,支持 OpenAI Codex、CLI 以及 VS Code 扩展程序,而 API 暂时仅面向少数合作伙伴提供。

OpenAI推出实时编程模型GPT-5.3-Codex-Spark 提供秒级实时响应快速编写代码

主要定位就是实时编程:

OpenAI 之前的 Codex 模型擅长的是长时间自主运行的任务,比如让 AI 模型跑几个小时甚至几天来完成复杂的工程任务,开发者基本不需要干预。

但这种模式有个问题:开发者会觉得自己直接被晾到一边,等待时间很长,中间也没有机会插手任务来调整方向,这对部分开发者来说非常不友好。

Codex-Spark 就是来弥补这个短板的,该模型专门针对实时交互场景进行优化,开发者可以边写代码边协作,可以随时打断模型、修改开发方向,改完也能立刻看到结果。

也就是现在 Codex 有两种不同的模式:需要深度思考的长任务交给大模型慢慢跑,日常写代码改 BUG 之类的快速迭代就使用 Spark 模型秒回。

性能表现:

虽然 Codex-Spark 是基于 Codex 的精简版,不过在能力并没有显著下降,在基准测试中 Codex-Spark 表现超过 GPT-5.1-Codex-mini,而任务完成时间只是 GPT-5.3-Codex 的零头。

默认情况下 Codex-Spark 的工作风格比较轻量化,只做最小化的精准修改,不会自动跑测试等,除非开发者主动要求,这些都是为了最大限度地保证实时交互的流畅性。

不过现阶段该模型有如下限制:仅支持 128K 上下文窗口、仅支持文本不支持多模态、研究预览阶段有独立的速率限制,高峰期可能需要排队。

OpenAI 还在训练过程中发现仅仅是模型推理快还不够,需要把整个请求和响应链路的延迟都降下来才行,所以 OpenAI 做了不少工作,包括重写整个推理堆栈。

改进的优化措施对所有模型都生效:

  • 引入持久化的 WebSocket 连接,客户端和服务器之间的往返开销降低 80%
  • 每个 token 的传输开销降低 30%
  • 首个 token 的响应时间缩短 50%

不过 WebSocket 目前默认仅给 Codex-Spark 模型开放,后续 OpenAI 会将该特性覆盖到所有模型,到时候使用其他模型的用户也可以看到体验上的改进。


文章来源: https://www.landiannews.com/archives/111836.html
如有侵权请联系:admin#unsafe.sh