Deepseek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4,成本降低50倍

DeepSeek打破AI训练烧钱魔咒:仅需1.2万美元,MT-Bench跑分媲美GPT-4

随着人工智能(AI)技术的飞速发展,越来越多的企业和研究机构投入巨资进行模型训练和开发。然而,这种“烧钱魔咒”的现象一直备受争议,许多专家和机构呼吁降低AI训练的成本,提高其效率。在这个背景下,DeepSeek的出现无疑为AI领域带来了一股清流。近日,DeepSeek与清华大学合作推出的全新AI对齐技术SPCT(自我原则点评调优)引起了广泛关注。据测试结果显示,DeepSeek-GRM模型在性能水平上达到了671B规模模型的性能水平,且训练成本仅为1.2万美元,MT-Bench跑分媲美GPT-4,成本降低50倍。

首先,让我们来了解一下DeepSeek-GRM模型。该模型是一种深度学习模型,具有强大的自然语言处理能力。通过采用拒绝式微调作为冷启动阶段和基于规则的在线强化学习阶段,该模型能够适应不同输入类型并以正确格式生成原则与点评内容。值得一提的是,DeepSeek-GRM模型采用了混合专家系统(MoE),支持128k token上下文窗口,单查询延迟仅1.4秒。这种设计使得该模型在处理大规模数据时具有很高的效率和准确性。

接下来,我们来看看DeepSeek-GRM模型在测试中的表现。据报告显示,通过每查询32次采样的推理计算,DeepSeek-GRM模型达到了671B规模模型的性能水平。这一表现不仅证明了该模型的强大性能,也说明了其硬件感知设计的高效性。此外,DeepSeek的SPCT技术通过“原则合成-响应生成-批判过滤-原则优化”的递归架构,让模型能在推理时动态修正输出,从而显著降低了高性能模型的部署门槛。

那么,DeepSeek-GRM模型的训练成本如何呢?据介绍,DeepSeek-GRM模型的训练成本仅为1.2万美元,这一数字相较于传统的高性能模型如GPT-4等动辄数百万美元的训练成本而言,无疑是一个巨大的降低。这得益于DeepSeek的SPCT技术以及其独特的硬件感知设计。DeepSeek通过减少90%人工标注需求,能耗较DPO降低73%,为实时机器人控制等动态场景提供了新的可能。

此外,DeepSeek的MT-Bench得分也令人瞩目。据报告显示,DeepSeek-GRM模型的MT-Bench得分达到了8.35,与GPT-4的得分相近,但成本却降低了50倍。这一表现无疑证明了DeepSeek在降低AI训练成本方面的巨大潜力。

总的来说,DeepSeek的出现为AI领域带来了革命性的变化。通过与清华大学合作推出的全新AI对齐技术SPCT,DeepSeek成功地突破了传统依赖海量训练数据的模式,通过推理阶段动态优化输出质量。在测试中,DeepSeek-GRM模型的表现也证明了其强大的性能和高效的成本优势。随着DeepSeek的不断发展,我们有理由相信,它将为AI领域带来更多的可能性,并为更多的企业和研究机构提供便利。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/24127

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2025年4月8日 上午10:42
下一篇 2025年4月8日 上午10:50

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注