在数字化的驱动下,整个IT产业都意识到了数据的重要性。
有人甚至将数据定义为未来的“石油”,不过正如石油需要提炼才能够使用一样,数据本身不产生任何的价值,我们只有通过对数据的挖掘、清洗、分析等操作之后,才能够利用数据创造价值。而在这个过程中,最为关键的因素就是——计算力。

计算力从何而来?自然是芯片,尤其是基于x86架构的芯片。据著名数据调研公司Mercury Research公布的2019年全球 x86架构处理器市场份额数据显示,如今有99.9%的计算机都在使用x86架构,剩下的0.1%则由包括威盛在内的众多芯片厂商瓜分。其实只要看看身边亲朋好友用的电脑和数据中心中的主流计算设备,这个结果也就不难想象。
也就是说,x86承担了当下绝大多数的计算重任,而CPU在这其中扮演的地位尤其重要。对于数据中心用户来说,或许大家已经开始采用GPU、FPGA、ASIC等加速芯片,但是最核心、最常见的计算力设备还是CPU。可以说,CPU的计算力高低,很大程度上决定了数据中心的计算力高低,进而决定了对于数据处理效率的高低。
尤其是对于当下的高性能计算、大数据和超融合应用来说,它们都对处理器的规格提出了更高的要求——高主频、多核心、大容量缓存成为这些应用的最爱,以此搭建的多核心平台也会获得更好的数据处理能力。

这也恰恰为AMD提供了大好的市场机会。北京时间4月14日,AMD面向全球发布了三款全新规格的第二代EPYC处理器,它们分别具备了8核心、16核心与24核心,面向主流应用而设计,并且均具备了高主频,以满足企业级核心业务应用。
饱受赞誉的第二代EPYC处理器
2019年8月,AMD发布了第二代EPYC处理器,其高达64核心的顶级配置也在第一时间引起了业界关注。相对于第一代产品来说,全新的EPYC处理器使用了性能更出色的“ZEN2”架构,也让核心布局从第一代的“四海一家”变成第二代的“八星伴月”,更体现了共享缓存的设计理念。

不仅如此,在芯片的设计上,第二代EPYC处理器也采用了“大缓存小芯片”的思路,把不同工艺、不同架构的芯片电路按需搭配,将IO核心单独整合成了一个Die,整合了内存控制器、PCIe控制器等IO单元,使其独立化。针对不同核心的特性,AMD采用了7nm+14nm的混合工艺,也让处理器本身具备了更高的灵活性与扩展性。