尽管 ChatGPT 所使用的 GTP-3.5 模型已经强大到让全球的人们对“人工智能”的能力有了全新的认识,它不再是以前的人工智障,而是真正能在各个方面帮助你解决实际问题。所以,除了网页版外,异次元也推荐了很多 优秀的 ChatGPT 客户端工具可以让大家把 AI 的作用发挥到极致。
但是 OpenAI 公司并没有停下研发的脚步,在无数人的期待下,现在终于正式推出了下一代的 GPT-4 模型,「ChatGPT Plus 会员」已经可以率先体验了,你可以参考开通教程。
搭载 GPT-4 的 ChatGPT 将会成为迄今为止综合能力最强的人工智能!它最大的变化是支持图片的输入和分析,拥有更强的推理能力,支持更加复杂的指令,并更加具有创造性。
ChatGPT-4 作为一个大规模的多模态模型,处理复杂问题的能力获得了大幅的增强,文字处理能力突破 25000 字,并且编程能力也更加的出众。并能接受图像作为输入,它能理解图像的内容,并能生成字幕、分类和分析等用途。
那么,应该日后能轻松使用 GPT-4 实现一些比如:发送一张的京东的购买记录截图给它,让它帮你去记账、合计金额;或者让 AI 帮你识别照片的内容,帮你自动进行分类等等。
总之,GPT-4 比以往任何时候都更具创造性和协作性。它可以在创意和技术、写作任务上与用户生成、编辑和迭代,例如创作歌曲、编写剧本、程序代码或学习用户的写作风格。
我们已经创建了 GPT-4,这是 OpenAI 在深度学习扩展方面的最新里程碑。GPT-4 是一个大型多模态模型(接受图像和文本输入,输出文本结果),虽然在许多实际场景中不如人类能力强,但在多种专业和学术基准测试中表现出人类水平的性能。例如,它能够通过模拟律师考试,得分位居前 10% 的考生;相比之下,GPT-3.5 的得分位居后 10%。我们花费了6个月的时间,通过我们的对抗测试项目和 ChatGPT 进行迭代,使 GPT-4 对事实性、可控性和不超范围方面的表现获得了迄今为止最好的结果(尽管还不完善)。
在过去的两年里,我们重新构建了整个深度学习堆栈,并与 Azure 共同设计了一台超级计算机,以适应我们的工作负载。一年前,我们训练了 GPT-3.5 作为“测试运行”。我们找到并解决了一些问题,改善了我们的理论基础。结果,我们的 GPT-4 训练运行对于我们来说是史无前例的稳定,成为我们第一个能够准确预测训练表现的大型模型。随着我们继续专注于可靠扩展,我们的目标是优化我们的方法论,帮助我们更提前地预测和准备未来的能力,这在安全方面是至关重要的。
我们将通过 ChatGPT 和 API (需加入等待列表) 发布 GPT-4 的文本输入功能。为了更广泛的应用「图像输入」功能,我们正在与一家合作伙伴密切合作。同时,我们还开源了 OpenAI Evals,也就是我们的 AI 模型性能自动评估框架,以便任何人报告我们模型的缺陷,以帮助指导进一步的改进。
在日常对话中,GPT-3.5 和 GPT-4 的区别可能不太明显。但在任务复杂性达到足够阈值时,它们之间的区别就会显现出来——相比 GPT-3.5,GPT-4 更可靠、更有创造力,能够处理比较复杂的任务要求。
为了理解这两个模型之间的区别,我们对多个基准进行了测试,包括模拟最初设计给人类的考试。我们使用最近公开的测试(如奥林匹克竞赛和 AP 免费反应问题)或购买 2022-2023 年的练习考试进行测试。在这些测试中,我们没有针对特定考试进行过训练。这些考试中的少数问题在训练期间被模型看到过,但我们认为结果具有代表性。
GPT-4 可以接受文本和图像的提示,这与仅有文本的设置相对应,使用户可以指定任何视觉或语言任务。具体而言,它会在输入中包含交织的文本和图像的情况下生成文本输出(自然语言、代码等)。在包括文本和照片、图表或屏幕截图在内的多个领域中,GPT-4 表现出与仅有文本输入相似的能力。此外,它可以利用为仅有文本语言模型开发的测试时间技术进行增强,包括几乎没有样本和链式思考提示。图像输入仍然是一个研究预览,不公开。
ChatGPT Plus 会员将获得 GPT-4 的访问权限,但依然会有使用上限。我们将根据需求和实际系统性能调整确切的使用上限,但我们预计会受到严重的容量限制(尽管我们将在未来几个月内进行扩容和优化)。
基于我们所看到的流量模式,我们可能会推出一个新的订阅级别,以供需要更高容量的GPT-4使用的用户使用;我们也希望在某个点上提供一定数量的免费 GPT-4 查询,以供未订阅的用户尝试。
如需访问GPT-4 API(使用与 gpt-3.5-turbo 相同的 ChatCompletions API),请加入我们的等待列表。我们将从今天开始邀请一些开发人员,并逐步扩大规模,以平衡容量和需求。如果您是研究AI社会影响或AI对齐问题的研究人员,还可以申请通过我们的研究人员访问计划获得补贴。
一旦获得访问权限,您可以向gpt-4模型发出纯文本请求(图像输入仍处于有限测试阶段),我们将随着时间的推移自动更新推荐的稳定版本(您可以通过调用 gpt-4-0314 来固定当前版本,我们将支持到6月14日)。价格为每 1k 提示单元0.03美元,每1k完成单元0.06美元。默认速率限制为每分钟 40k 个令牌和每分钟 200 个请求。
gpt-4具有8,192个令牌的上下文长度。我们还提供对我们的32,768-context(约50页文本)版本gpt-4-32k的有限访问权限,该版本也将随时间自动更新(当前版本gpt-4-32k-0314,也支持到6月14日)。价格为每1k提示单元0.06美元,每1k完成单元0.12美元。我们仍在改善长上下文的模型质量,并希望得到有关您的用例的性能反馈。我们正在按照不同的速率处理8K和32K引擎的请求,因此您可能会在不同的时间获得对它们的访问权限。
我们期待 GPT-4 成为一款有价值的工具,通过驱动多种应用程序来改善人们的生活。还有很多工作要做,我们期待在社区的集体努力下,通过建立、探索和贡献于该模型来改善这个模型。
/ 关注 “异次元软件世界” 微信公众号,获取最新软件推送 /
如本文“对您有用”,欢迎随意打赏异次元,让我们坚持创作!
赞赏一杯咖啡