平头哥首款AI芯片一换,阿里云服务器算力5倍GPU方案

左手第七代高主频ECS,右手含光800云服务器

不算久等!阿里云基础设施算力又升级了!

本次被“翻牌”的是第七代高主频ECS企业级实例、含光800云服务器商用以及新一代容器(神龙)服务。

还记得去年杭州云栖,搭载自研第二代神龙云服务器架构的六代ECS已是众望所归;如今搭载第三代神龙云服务器架构的高主频七代,在整机算力上却是前辈的2.6倍。

究竟2.6倍之多源于何处?

很关键的一点,就是搭载了最新一代英特尔®至强®可扩展处理器,据说这波技术尝试就连英特尔自己都还没来得及发布。

 此外,由于得到集大成的第三代神龙架构助力,七代高主频实例在性能与稳定性上都有了显著提升。

大到底层存储、网络,虚拟化技术升级;小到搭载的云盘性能、每秒钟操作的IO次数以及吞吐能力等均是可圈可点。

别的不说,单从支持vCPU数量就高达192个。

配套的内存的频率也达到了3200赫兹。

七代首次支持50Gx2网络架构,每秒钟PPS高达2400万,果断支持大帧传输之外,实例带宽最高提升5倍之多,物尽其用。

整机存储吞吐从每秒2GB上升到4GB,转发提升到60万IOPS,写延时最多下降20%以上,性能逼近裸盘,值得期待。

出于安全性和稳定性,阿里云还通过进一步完善no QEMU极致优化来降低七代实例抖动。

再配合Aliyun Linux 2 LTS,大力将启动速度最提升60%;就算是正在运行时,也可多达30%。

强势引入硬件级别QOS能力,保障关键业务。

如此看来果然是又快又好的节奏。

据悉由于算力与稳定性并存的优势,高主频七代ECS尤其适用半导体仿真设计、工业仿真、 游戏、高性能数据库和渲染等对计算力要求较高的场景。

截至发稿前,量子位获悉第七代ECS企业级高主频实例以及新一代弹性裸金属云服务器,目前都已启动邀测。

从六到七,技术尝试助力成本降低是关键

从六到七,算力与稳定性等确实都上了好几层台阶。

但阿里云弹性计算首席架构师蔡俊杰却透露,其实除了市场需求与使用性能等硬性催化剂之外,成本考量也毋庸置疑成了关键所在。

简单说,这款七代高主频实例更省钱了!

当然,这种成本节省是对标六代高主频来说的,而不是销路甚好的第六代增强实例。


成本降低有门道,先从更好地定制CPU说起。

据悉,阿里云这次在七代的芯片选型上做了大量工作。

通过洞察几百万客户实际使用云服务器的情况,从内存带宽、缓存以及频率要求,包括用户应用的性能甜点角度做了大量的数据分析。

“通常情况下,价格高则性能强,但如果需要用户提升百分之一的性能却需要cover百分之二十的成本增幅来换的话,实在不划算,当然这还是在迫切需要提升的前提下。”

阿里云弹性计算方面最后定制的这一款CPU,保障符合用户需求的高性能的同时综合成本上降低了不少。

更重要的一点,为了低成本的需要,技术研发在服务器设计上竟然还展开了新路线的探索。

或许大家可能知晓,主流的云服务器过去通常采用的是二路服务器,即一个服务器中携带两颗CPU。

如今的七代创新性选择了更加高密度部署的四路服务器制式,也就是同时携带四颗CPU。

不但是单体计算性能得到显著提升,从整机的性能角度上也有很大飞跃。

很明显,四路服务器带来的好处,每颗均摊到整体基础设施的成本,相比之前确实下降不少。

但蔡俊杰透露,尽管成本下降的背后,是运维和稳定性难度的急剧上升。

由于服务器上的器件增多,散热就成为亟待攻克的关键一环。

同时,如何保障所有器件能够正常工作并在性能稳定的基础上达成目标,是个挑战。毕竟由于CPU和内存增加了一倍,故障概率也就同时增加了一倍。

无论何种新品的研发都不希望通过牺牲稳定性来降低成本,所以为了保障实例的稳定性,阿里云做了很多工作。

得益于阿里云成熟的主动运维体系,包括极高的故障探测和预测能力、世界领先的热迁移技术等,七代ECS将继续承诺全球第一的稳定性SLA,单实例达到99.975%。

七代高主频ECS企业级实例在成本上的精益求精,在某种程度上也应承了更多用户在云服务器的使用上越发关注成本优化的现实。

2020年的疫情突袭,带来源于全球经济环境的诸多挑战。

越来越多的云服务器使用者会在选型以及使用方式上表现出更加精细化的态度,毕竟大家都希望在有限的成本投入中得到最大程度的资源利用。

这一点,作为云服务器未来发展的可预测趋势之一,得到更广泛的关注也是无可厚非的。

如何更好理解“新一代容器服务”?

谈及新一代容器服务,“基于神龙架构,阿里云还升级了容器服务的算力,同等条件下,新一代容器服务可为客户缩减50%的计算成本。”的论断或许你也听说过。

基于此,蔡俊杰还异国连线算了笔账。

其实这样的判断并不仅仅基于被广泛提及的神龙架构,而是使用裸金属服务器的形态来支持容器场景带来的整体成本的大幅降低。

以第七代高主频ECS为例,原本四路服务器为整机算力带来极大提升,作用在容器层面,有什么额外好处?

直接说就是做到将原本分散在各个小机器中的容器实例高效聚集起来,节省算力成本的同时更好利用容器服务。

试想一下,对于具备32vCPU算力的小型服务器来说,假设每台上运行的操作系统需要耗费1个vCPU和500兆内存,那么6台就要耗费6个vCPU和3G内存。

如果换成第七代高主频ECS支持192个vCPU的情况,光操作系统的消耗就只有原来的六分之一。

更重要的一点,在此种部署环境中容器服务的超卖比优点得到显现,即越来越多的应用可以达成错峰,带来部署密度的增加,数量上的保障。

性能方面,现实表明,神龙裸金属服务器与容器相结合在阿里经济体内部各种场景的多重测试中,已经可达到整体性能20%的提升。

哪怕在用户群体中验证,由于底层IO与存储的软硬一体化加速机制,带来30%的性能优势也是可以期待的。

如果具备足够的技术前瞻性的话,或许会发现,云服务器的另一个未来触发点,如此说来竟是云原生无疑。

可能这也是阿里云率先业界推出弹性裸金属这样的创新产品形态的关键所在。

云原生是未来,与容器结合是必然。

天生属性即适合与K8S容器编排引擎打配合,以求实现服务serveless弹性计算,可以做到让更多用户聚精会神关心应用怎么跑,而不是底层架构怎么做,弹性容器实例ECI就是为serverless而生的新生代“云服务器”

当然,花开两朵各表一枝。

如何做到部署更轻量、启动更迅速、并发能力更强悍等,也对云服务器的整体生产链路提出了更高要求。

蔡俊杰认为,在极短的时间内准备好计算、网络以及存储等资源,通过整链路的优化升级达到极致服务的状态,来高安全性满足复杂的云原生场景,一个字“难”。

如此看来,安全稳定地提供符合云原生使用体验的基础设施能力,想必也是各大云计算入局者竞相探讨的要务之一。

含光800云服务器因何而来?

阿里云官方数据表明,去年,一颗含光800芯片相当于10个GPU的算力。

今年,一台阿里云含光800云服务器赶超GPU性能5倍之多。

日前,阿里云正式官宣推出搭载含光800推理芯片的云服务器,标志着自研含光芯片正式大规模商业化的beginning。

从芯片进化到云服务器,本质上,阿里云铆足劲头让更多已经上云或正在上云路上的小伙伴们尝鲜含光800的超强算力。

助力云上AI推理,这波操作相当别致。

量子位获悉,由于配备了阿里平头哥自研神经网络加速芯片含光800,该款云服务器提供了全球最高单芯片AI推理性能,有着同类处理器的数十倍性能之高。

另外还针对业务场景达成了深度优化,例如广泛适用于图像搜索、场景识别、视频内容识别、自然语言处理等业务。

一句话,算力表现出挑且推理能力高性价。

好的产品都要从自身用起,例如阿里云城市大脑交通信号机系统。

自从使用了含光800服务器处理车辆检测、品牌识别、车牌识别等算法模型,单张含光800全链路竟能够支持100路实时视频的分析和特征结构化数据的提取。

结果呢?相比搭载GPU,性能提升超过5倍。

多方了解到,含光云服务器还基于阿里云自研的神龙云服务器架构,目前为用户提供弹性裸金属加速实例。

其中开发工具采用阿里平头哥HGAI自动化开发工具,支持主流深度学习框架TensorFlow、Caffe、MXNet和ONNX

 就在今年3月,阿里云飞天AI加速引擎AIACC与含光800的组合,击败Google不说,还拿下了斯坦福大学DAWNBench ImageNet推理成本的世界第一。

据了解其能效比达500IPS/W,是第二名的3.3倍,且被作为阿里云软硬件一体化极致性能优化的典型案例津津乐道。

谈及软硬件一体化的能力所带来的效果,无论是国外的云计算巨头AWS,还是我们身边的阿里云,具体产品的性能飞跃,甚至一年翻一番的速率是有目共睹的。

如果从技术角度,这种软硬一体的自研能力很大可能是未来3-5年,各家都十分重视的路线之一并被争相效仿,云服务器自然不例外。

此外含光800云服务器的商用也正是兼顾软硬一体能力的同时,将解决云场景下的机器学习问题作为重点。

由此推断,将云与数据以及人工智能紧密结合,用云的视角服务更多不同的技术场景化,或许将成为云服务器场景进化的必然路径。

如今,云服务器作为云计算基础设施的大底盘,阿里云经济体“全面上云”的号角业已达成。

作为阿里云自身的技术基础,关于云服务器能力构建,更多被认为是关乎云服务商产品能力的命脉。

随着云计算自身形态的多样化,实践部署的亲民性与无处不在,包括国内对自研国产化核心竞争力的重视日益提升等,可以判断未来很长一段时间,该领域不会出现重要性层面的颠覆式变化。

可以肯定,云服务器仍是兵家必争之地,无疑。

附:采访嘉宾简介


版权所有,未经授权不得以任何形式转载及使用,违者必究。