「AMD史上最大芯片」炸场CES:1460亿晶体管,可大幅压缩ChatGPT训练时间

首款数据中心级APU

鱼羊 Alex 发自 凹非寺

量子位 | 公众号 QbitAI

一颗芯片塞进1460亿个晶体管。

还号称能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周,节省百万美元电费。

就在科技春晚CES 2023上,苏妈带着AMD“迄今为止最大芯片”来炸场子了。

这颗代号为Instinct MI300的芯片,也是AMD首款数据中心/HPC级的APU。

参数性能

1460亿个晶体管是个什么概念?

此前,英特尔的服务器GPU Ponte Vecchio拥有的晶体管数量是1000亿+,而英伟达新核弹H100,则集成了800亿个晶体管。

不过,熟悉AMD的胖友们都知道,APU简单来说就是CPU和GPU封装在了一起。从这个角度上来说,远超竞争对手的晶体管数量似乎也是情理之中(手动狗头)。

具体来说,这颗拥有1460亿个晶体管的芯片,采用的是小芯片(Chiplet)设计方案。

基于3D堆叠技术,在4块6nm工艺小芯片之上,堆叠了9块5nm的计算芯片(CPU+GPU)。

根据AMD公开的信息,CPU方面采用的是Zen 4架构,包含24核。GPU则采用了AMD的CDNA 3架构。

由于Zen 4架构通常是8核设计,外界普遍猜测,9块计算芯片中有3块是CPU,6块是GPU。

另外,MI300拥有8颗共128GB HBM3显存。

性能方面,AMD并未公布太多信息,仅与Instinct MI250X进行了比较。

苏妈表示,相比于MI250X,MI300每瓦AI性能提升了5倍,AI训练性能整体提高了8倍。

而据Tom‘s Hardwre消息,AMD还透露,MI300能将ChatGPT、DALL·E等大模型的训练时间,从几个月缩短到几周。

Instinct MI300预计将在2023年下半年交付。届时,这颗芯片还将被部署到两台新的百亿亿次级别(ExaFLOP)超级计算机上。

One More Thing

同样是在今年的CES上,AMD还直接对标苹果M系列芯片,推出了“世界最快的超薄处理器”——锐龙7040系列。

具体型号包括:Ryzen 5 7640HS、Ryzen 7 7840HS、Ryzen 9 7940HS。

对于其中最高端的R9 7940HS,苏妈大赞道:

R9 7940HS在多线程性能方面,比苹果M1 Pro快34%;在AI任务处理上,比苹果M2快20%

还给出了更直观的体验数据:搭载锐龙7040系列芯片的超薄笔记本,能连续播放30+小时视频。

首批搭载锐龙7040处理器的笔记本电脑,将在今年3月份出货。

不管怎么说,这消息可把吃瓜群众乐坏了:

苹果下场自研PC芯片,加强了芯片制造商之间的竞争,这种局面其实10年前就该有了。

参考链接:
[1]https://www.youtube.com/watch?v=OMxU4BDIm4M
[2]https://www.tomshardware.com/news/amd-instinct-mi300-data-center-apu-pictured-up-close-15-chiplets-146-billion-transistors
[3]https://www.anandtech.com/show/18721/ces-2023-amd-instinct-mi300-data-center-apu-silicon-in-hand-146b-transistors-shipping-h223
[4] https://www.macrumors.com/2023/01/05/amd-new-chips-against-m1-pro/

版权所有,未经授权不得以任何形式转载及使用,违者必究。