🤖 Grok-1 - 马斯克承诺开源 Grok-1 已发布

GitHubHugging Face

马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。

Grok-1 成为迄今参数量最大开源大语言模型。


Grok-1 是一个由 xAI 从头开始​​训练的 3140 亿参数混合专家模型。

模型细节:

★基础模型基于大量文本数据进行训练,没有针对任何具体任务进行微调;

★3140 亿参数的 MoE 模型,在给定 token 上的激活权重为 25%;

★xAI 于 2023 年 10 月使用基于 JAX 和 Rust 的自定义训练堆栈从头开始训练。

📢 @LCGFX
 
 
Back to Top