扫码关注量子位
格式限制越严,推理越差
“所有的LLM都是1.58 Bit的”
LeCun:搞LLM OS去?
和Bard一起从头生成短片
这才是提高LLM可靠性的关键
430亿参数,CTO:好用!
可即插即用
“全家桶”级开源,毫无保留
“比Meta版ChatGPT更令人兴奋”
还能自动纠错
发布即开源
“2026年,AI将成为数学研究中值得信赖的共同作者,其他领域也一样”
麻省理工领先认证
盈利超100万美元就要支付10%授权费
PaLM 2准备进军广告界
下游应用瞄准B端市场
模型推理性能提升50%,算力利用率提升1倍。
来自东北大学&MIT&格拉斯哥大学的正经研究
GitHub 3.2K星
项目已开源