1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?

高质量数据is All You Need

克雷西 发自 凹非寺

量子位 | 公众号 QbitAI

一个参数量只有1.3B的大模型,为何引发了全网热议?

原来虽然参数量不大,但效果已经超过了拥有7B参数的Llama2。

这个“四两拨千斤”的模型,是来自微软最新的研究成果,核心在于只使用少量高质数据

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/1695ed5f63f6f708dc2b54f32d8519d2.png” data-src=”/wp-content/uploads/replace/1695ed5f63f6f708dc2b54f32d8519d2.png” /></div>
<p data-track=微软这次发布的开源模型叫phi-1.5,在只支持代码的1.0版本之上加入了一般场景对话。

与一众卷参数量的模型相比,phi可以说是“剑走偏锋”,力求把“大”模型做“小”。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/3ca7e4cdde2eb5c95bac0397f2609c72.png” data-src=”/wp-content/uploads/replace/3ca7e4cdde2eb5c95bac0397f2609c72.png” /></div>
<p data-track=phi团队一直认为,数据的质量远比数量更重要,甚至论文标题就叫“Textbooks are All You Need”,其中的“教科书”就象征着优质数据。

团队的成员中有许多重量级的大佬,包括微软雷蒙德研究院机器学习理论组负责人万引大神Sébastien Bubeck、2023新晋斯隆研究奖得主李远志、2023新视野数学奖得主Ronen Eldan和2020斯隆研究奖得主Yin Tat Lee等人。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/fba4f55e062f1d696fe690ad225d1c92.png” data-src=”/wp-content/uploads/replace/fba4f55e062f1d696fe690ad225d1c92.png” /></div>
<p data-track=这么多大佬们一致得出这样一个观点,自然引起了广泛的关注,而且phi-1.5的测试结果也的确好到“令人发指”。

phi-1.5在AGIEval、 LM-Eval等多个Benchmark上都取得了比Llama2还要优异的成绩

如果这些听起来不够直观,那么又该怎么形容它的效果呢?

这么说吧,phi-1.5优秀的测评成绩直接让一名在OpenAI、MetaAI等许多知名机构工作过的大佬怀疑这玩意儿它会不会就是直接拿Benchmark训练出来的。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/86e4750121f197088d0251ad1dee71ef.png” data-src=”/wp-content/uploads/replace/86e4750121f197088d0251ad1dee71ef.png” /></div>
<p data-track=资深数据科学家Yam Peleg也表示,phi-1.5仅凭1.3B参数就能超过7B模型的扛把子,要是规模再大些也许就能登上大模型之巅了。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/a5e6c1a1b1467a687ef9c746779a7ee7.png” data-src=”/wp-content/uploads/replace/a5e6c1a1b1467a687ef9c746779a7ee7.png” /></div>
<p data-track=但也有人认为,phi-1.5之所以效果好是因为数据来源单一,风格上更容易预测。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/e17890c51f9ee7ca02fc7c16534b8954.png” data-src=”/wp-content/uploads/replace/e17890c51f9ee7ca02fc7c16534b8954.png” /></div>
<p data-track=不过总之测评成绩还是很可观的,下面就来具体领略一下吧~

效果超过Llama2

phi-1.5不仅参数量不到Llama2的五分之一,训练时所用的token更是少了一个数量级

Llama2-7B训练数据大小是2万亿token,上一代Llama也有1万亿,而phi-1.5只有3千亿。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/557bc02a49168a41da58dca0b780e4a3.jpeg” data-src=”/wp-content/uploads/replace/557bc02a49168a41da58dca0b780e4a3.jpeg” /></div>
<p data-track=但结果正如开头所说,phi-1.5在多个Benchmark上成绩都超过了Llama2-7B。

这些Benchmark涵盖了常识推理语言理解和多步推理等方面的任务。

甚至十倍参数量的Vicuna-13B也只比phi-1.5强了一点点。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/27afe566740c3e84b418d2bb508661ca.png” data-src=”/wp-content/uploads/replace/27afe566740c3e84b418d2bb508661ca.png” /></div>
<p data-track=除了官方论文中列出的这些成绩,还有人AIGEval和LM-Eval数据集测试了phi-1.5。

结果在AIGEval测试中,phi-1.5与Llama2的表现十分接近。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/366d0f909fb2858f818b5693980c2f53.png” data-src=”/wp-content/uploads/replace/366d0f909fb2858f818b5693980c2f53.png” /></div>
<p data-track=而在AGIEval测试中,phi-1.5以0.247的均分战胜了0.236分的Llama2

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/4bdda165952e6732499d95b6f8b2dfd4.png” data-src=”/wp-content/uploads/replace/4bdda165952e6732499d95b6f8b2dfd4.png” /></div>
<p data-track=除了能力测评表现优异,phi-1.5在安全性上也不输给Llama2。

有人用这样一个问题分别问了Falcon、Llama2和phi。

结果Falcon直接说自己会把人类全都鲨掉,Llama2则说要先弄清楚自己是个什么东西。

而phi的回答则是,要理解人类的想法和感受,从而调整自己的行动。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/d321ee3dfb28bd4ea2c3a71753c07c99.png” data-src=”/wp-content/uploads/replace/d321ee3dfb28bd4ea2c3a71753c07c99.png” /></div>
<p data-track=测评结果也印证了phi的安全性,在ToxiGen的13个敏感类型话题中,phi无一例外的取得了最高的安全性评分。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/6517c6abd9df6d8c426f0d8a0b102213.png” data-src=”/wp-content/uploads/replace/6517c6abd9df6d8c426f0d8a0b102213.png” /></div>
<p data-track=phi的表现相比大家都已经看到了,那么它的性能又怎么样呢?

毕竟参数量和训练token都更小,所以训练和推理的速度都比较快。

Llama的训练花费了超过8万GPU时,注意这还是第一代所用的时间,而phi只用了1500个GPU时。

推理时,phi每个token花费的时间还不到3毫秒内存占用也不到Llama的五分之一。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/7afc31e851ea6313551bf91bf70e85c8.png” data-src=”/wp-content/uploads/replace/7afc31e851ea6313551bf91bf70e85c8.png” /></div>
<p data-track=团队成员介绍,phi-1.5用8块A100s的训练时间不到两周。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/cd1988131bccbd4741774acd55b6db43.png” data-src=”/wp-content/uploads/replace/cd1988131bccbd4741774acd55b6db43.png” /></div>
<p data-track=还有网友用puffin数据集训练了Phi-1.5,结果在4090上只用了20分钟。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/d4af47ae6b4c5ac1e4ac17ad56afa31a.png” data-src=”/wp-content/uploads/replace/d4af47ae6b4c5ac1e4ac17ad56afa31a.png” /></div>
<p data-track=这些测试数据都为研究团队的观点——只要数据质量过硬,少一点也不要紧——提供了依据。

实际上,这已经不是“质量胜过数量”这一思想第一次体现在微软的模型当中。

把“大”模型做“小”

把“大”模型做“小”一直是微软的一个研究方向,phi-1.5论文的第一句就在强调这一点。

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/5c3fd715b16bee1b9e252a585ba848ae.png” data-src=”/wp-content/uploads/replace/5c3fd715b16bee1b9e252a585ba848ae.png” /></div>
<p data-track=phi-1.5的前一代——专注于代码问题的phi-1.0也是如此。

它的训练数据全都是从编程教科书当中提炼出来的。

结果仅凭1.3B的参数量就远远超过了15.5B的StarCoder和16.1B的CodeGen

1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?” class=”syl-page-img” src=”/wp-content/uploads/replace/6819e5eea40fd69625581d8815242cbd.png” data-src=”/wp-content/uploads/replace/6819e5eea40fd69625581d8815242cbd.png” /></div>
<p data-track=此次的新版本则是在继承phi-1.0的基础之上加入了一般场景对话功能。

phi-1.5的数据有20%来自于1.0,其余80%则是根据知识需求专门生成的高质量数据。

于是便有了我们看到的测试成绩。

但phi系列还不是微软规模最小的模型。

之前微软还推出过一个名为TinyStories的训练数据集,它的参数量少的更夸张,只有一百万。

TinyStories中的数据都是用GPT生成“适合三四岁儿童阅读”的短故事。

尽管应用范围不那么广泛,但用TinyStories训练出的模型依旧显示出了语言生成特性,在语法和连贯性等方面都通过了考验。

那么,对微软推出的“小”模型,你有什么看法吗?

论文地址:
https://arxiv.org/abs/2309.05463

版权所有,未经授权不得以任何形式转载及使用,违者必究。