MiniMax 发布国内首个 MoE 大语言模型 abab6

[db:摘要]

MiniMax 于 2024 年 1 月 16 日发布了国内首个 MoE 大语言模型 abab6,该模型采用 MoE 架构,具备处理复杂任务的能力,并且在单位时间内能够训练更多的数据。评测结果显示,abab6 在指令遵从、中文综合能力和英文综合能力上优于之前的版本 abab5.5,并超过了其他大语言模型如 GPT-3.5。abab6 展现了出色的能力,例如教授儿童数学题目和帮助构建关于上海的虚构桌游。作为国内首个 MoE 大语言模型,abab6 在处理复杂任务方面表现出色。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21603

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2024年1月16日
下一篇 2024年1月17日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注