科学家利用全球最强超级计算机成功训练ChatGPT级别模型,仅使用8%计算能力。该突破来自Oak Ridge National Laboratory,研究团队采用创新技术在Frontier超级计算机上训练了万亿参数的语言模型。通过分布式训练和并行技术,实现了100%弱扩展效率。然而,训练大型语言模型仍面临挑战,需要解决内存问题。研究为未来训练巨大语言模型提供经验,突显了分布式训练和并行计算的关键作用。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21642
该文观点仅代表作者本人,平台仅提供信息存储空间服务。