新开源之王来了!1320亿参数,还比Llama2-70B快1倍
12T token从头训练
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI
“最强”开源大模型之争,又有新王入局:
大数据巨头Databricks,刚刚发布MoE大模型DBRX,并宣称:
它在基准测试中击败了此前所有开源模型。
包括同为混合专家模型的Grok-1和Mixtral。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/349d96e453699c4f34a9b95a2cd5ec83.jpeg)
新王搅局,迅速引发了开源社区的热议。
毕竟,仅从纸面数据来看,DBRX颇具特点:总参数量为1320亿,但因为是混合专家模型,每次激活参数量仅为360亿。
就是说,在总参数量接近Llama2-70B的2倍的情况下,DBRX的生成速度也比Llama2-70B快1倍。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/3e515a0fead1908db2a0744e766fc52c.gif)
△DBRX vs Llama2-70B
另外,DBRX是在12T token上从头训练的,训练数据量是Llama2的6倍,远高于Chinchilla定律推荐量。
网友们的第一反应be like:
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/daf32a378b4ecdb614becdcc535d32bb.jpeg)
首席科学家:打赌输了就把头发染蓝
来看DBRX的具体细节。
DBRX由16个专家模型组成,每次训练推理会有4个专家处于激活状态。其上下文长度为32K。
为了训练DBRX,Databricks团队从云厂商那里租用了3072个H100。
一个细节是,团队向Wired透露,经过两个月的训练之后,DBRX已经在基准测试中取得了不错的分数。而在那个时候,他们买的云资源还能再跑一个星期。
团队因此产生了小小的分歧:是用这些资源来训练一个小杯版本,还是再投喂给模型一些高质量数据,用课程学习(curriculum learning)的方法来提高DBRX在一些特定任务上的能力?
经过一番热烈的内部讨论,Databricks团队最终决定走课程学习路线。
正是这一决策使他们收获颇丰:
Databricks首席科学家Jonathan Frankle(就叫他老弗吧)认为,课程学习使得DBRX“产生了有意义的变化”。
具象化一点来说,就是老弗本来觉得DBRX可能搞不太定代码生成,还打赌说如果他判断错了,就去把头发染成蓝色。
而这是他的最新照片:
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/942d3d67496df685b0532320979816e0.jpeg)
回到正题,DBRX的测试结果显示,它在语言理解、编程、数学和逻辑方面都达到了SOTA,击败包括Llama2-70B、Mixtral和Grok-1在内的一众开源大模型。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/40f5714fb2968f1ec574e281a50d4f90.png)
还在大多数基准测试中都击败了GPT-3.5。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/e7fa37cea470714c9864a4c48f1d21ec.png)
Databricks这次开源了DBRX的两个版本:DBRX Base和DBRX Instruct,前者是预训练基础模型,后者则经过指令微调。
老弗还对Wired透露,他们团队接下来计划对模型训练的那个“最后一周”展开研究,看看DBRX这样强大的模型是如何在其中收获额外技能的。
值得一提的是,去年6月,Databricks以13亿美元(约93亿人民币)的价格,买下了仅62名员工的AI初创公司MosaicML——
就是发布了MPT系列开源模型的那家。
老弗当时就是MosaicML的首席科学家。此后,他和他的团队一起留在了Databricks。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/3f307e79467d3fa2d2f1671188ebc408.jpeg)
开源社区嗨翻
DBRX发布不到4小时,已经有人把它成功部署到苹果M2芯片笔记本电脑上了。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/309e6f6364f5aa07a06adc6281967b33.jpeg)
而大模型竞技场也第一时间开放了DBRX-instruct的投票。
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/b814c7e8e582c4f61c4ca3eb758a712f.jpeg)
不过,也有人对DBRX的“开源”提出了质疑:
![新开源之王来了!1320亿参数,还比Llama2-70B快1倍](/wp-content/uploads/replace/e90eebfd2318f87b409e6c1a93bda67f.jpeg)
根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
参考连接:
[1]https://www.databricks.com/blog/announcing-dbrx-new-standard-efficient-open-source-customizable-llms
[2]https://github.com/databricks/dbrx
[3]https://www.wired.com/story/dbrx-inside-the-creation-of-the-worlds-most-powerful-open-source-ai-model/
— 完 —
- OpenAI被举报:非法限制员工披露AI安全风险2024-07-14
- AI视频创作一条龙!达摩院寻光平台炸场WAIC,突破可控编辑难题2024-07-05
- 姚班大神陈立杰获UC伯克利教职,2025年秋季入职2024-07-02
- 英伟达布局AI视频,Sora风头快被抢完了2024-06-29