在15小时内用几千元成本训练出中文版LLaMA2

[db:摘要]

站长之家报道,Colossal-AI团队通过词表扩充、数据筛选和多阶段训练策略,在15小时内用几千元成本训练出参数规模达85亿字元的中文版LLaMA2大模型。这个低成本方案使中文版LLaMA2在多项中文任务上的表现达到或超过同规模模型的先进水平。整个训练流程、代码和权重均已开源,可以轻松迁移应用到其他语言和领域,实现大模型的低成本快速构建。该方案已在多个行业取得良好效果。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/23254

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2023年9月25日
下一篇 2023年9月25日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注