爱奇飞网

网站首页互联网 >正文

Nvidia旨在通过推出全球首款配备HBM3eRAM的全新GraceHopper超级芯片充分利用生成式AI的增长

开心的月饼 2023-08-14 08:57:06 互联网

随着生成式人工智能技术的兴起,Nvidia的股价在2023年出现了爆炸式增长。该公司希望通过推出最新的GraceHopper超级芯片来增强其在服务器市场的势头,该芯片是世界上第一个采用最新HBM3e内存的芯片。

Nvidia旨在通过推出全球首款配备HBM3eRAM的全新GraceHopper超级芯片充分利用生成式AI的增长

Nvidia推出了最新的GraceHopper超级芯片,旨在为数据中心提供支持,为生成式人工智能或其他加速计算提供支持。尽管Nvidia继续以不同形式为消费者生产基于Arm的芯片,但几年前它转向优先考虑基于Arm的服务器SoC,通过将其GraceHopper平台与其服务器级GPU集成,可以进一步加速这些SoC。随着包括ChatGPT和Midjourney在内的生成式人工智能技术的兴起,该公司的赌注得到了巨大的回报,自今年年初以来,该公司的股价飙升了约200%。

与最初的GraceHopper超级芯片一样,采用双配置的新型GH200最多可容纳144个ArmV系列Neoverse内核。与之前一样,CPU(Grace)与Nvidia的H100TensorCoreGPU(Hopper)配对。H100GPU可以提供至少51teraflops的FP32计算能力,与组合的GH200架构可实现令人印象深刻的8petaflops的AI性能。

为了使GH200达到这些新的性能水平,尽管保持芯片架构不变,Nvidia仍使用282GB的最新HBM3e内存升级了内存架构。HBM3e比常规HBM3内存快50%,总带宽为10TB/秒。这使得GH200能够处理比第一代芯片大3.5倍的模型,并使其成为世界上第一个配备HBM3e内存的芯片。

Nvidia还表示,GraceHopper平台具有可扩展性,支持使用Nvidia的NVLink互连连接额外的GraceHopper芯片。一致性内存(集群中所有CPU和GPU共享)最高可达1.2TB。Nvidia表示,领先的服务器制造商预计将在2024年第二季度交付运行GH200配置的系统,涵盖100多种服务器版本。


版权说明:本站所有作品图文均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系我们


标签:

站长推荐
栏目推荐
阅读排行