首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MoE
颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!
性能全面提升
十三
昨天 10:07
MoE
北京大学
袁粒
颜水成
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观
消费级GPU即可微调
丰色
2024-04-05
MoE
大模型
新开源之王来了!1320亿参数,还比Llama2-70B快1倍
12T token从头训练
鱼羊
2024-03-28
MoE
开源大模型
多模态大模型学杂了能力反下降?新研究:MoE+通用专家解决冲突
基于指令聚类的稀疏专家多模态大模型
衡宇
2023-12-30
MoE
多模态大模型
首个开源MoE大模型发布!GPT-4同款架构,来自欧洲的OpenAI
梦晨
2023-12-09
Mistral
MoE
大模型
开源
加载更多
热门文章
诺奖得主哈萨比斯最新访谈:仅仅将AI视作一种技术是错误的
2024-10-18
基于豆包大模型,火山引擎“飞连”首发大模型IT赋能平台
2024-10-17
国产大模型竞技场首超GPT-4o!零一万物GLM共同跻身Top10
2024-10-16
破天荒!英特尔AMD联盟了,拯救x86
2024-10-16
英特尔AMD世纪联手,感谢AI,感谢联想
2024-10-16