4月15日,OpenAI 在其官方博客宣布正式发布 GPT-4.1系列模型,涵盖 GPT-4.1、GPT-4.1mini 和 GPT-4.1nano 三款子模型。该系列在编程能力、指令理解及长文本处理等方面实现重大突破,全面超越前代 GPT-4o 及 GPT-4o mini。其中,模型上下文窗口扩展至100万 tokens,知识库更新至2024年6月,为复杂任务提供更强支持。
GPT-4.1系列目前仅面向开发者开放,通过 API 接口提供服务,普通用户暂无法直接通过 ChatGPT 界面体验。OpenAI 透露,GPT-4.1在编程场景中代码生成速度较 GPT-4o 提升40%,同时用户查询成本降低80%,显著优化开发效率与成本。
性能表现:多项基准测试刷新纪录
- 编程能力:在 SWE-bench Verified 测试中,GPT-4.1得分达54.6%,较 GPT-4o 提升21.4个百分点;
- 指令遵循:MultiChallenge 测试中提升10.5个百分点;
- 多模态处理:Video-MME 测试创下72.0% 新高。
GPT-4.1mini 在多项测试中表现接近甚至超越 GPT-4o,延迟降低近50%,成本减少83%。而 GPT-4.1nano 作为轻量化版本,以100万 tokens 上下文窗口和80.1% 的 MMLU 得分,成为分类与自动补全任务的性价比之选。通过推理栈优化与提示缓存技术,系列模型首次响应时间大幅缩短,为开发者提供高效低成本的解决方案。
实际应用场景成效显著
- 编程效率:Windsurf 测试显示,GPT-4.1编程效率提升30%,无效编辑减少50%;
- 法律领域:Thomson Reuters 的法律 AI 助手 CoCounsel 接入 GPT-4.1后,多文档审查准确率提升17%。
GPT-4.1输入费用为每100万 tokens2美元(约合人民币14.6元),输出费用为8美元(约合人民币58.3元)。在中等查询场景中,GPT-4.1较 GPT-4o 性能提升的同时,成本降低26%。其中,GPT-4.1nano 凭借超低延迟与成本,成为 OpenAI 当前最经济的模型选择。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/23878
该文观点仅代表作者本人,平台仅提供信息存储空间服务。