库伦旗资讯网

英特尔发布神经网络推理处理器Spring Hill:服务大型计算中心

原创IT168我想昨天分享

8月21日,英特尔最近在Hot Chips 31活动上发布了新的Nervana神经网络推理处理器“Spring Hill”,该活动专门用于大型计算中心。

据英特尔称,Spring Network的神经网络推理处理器是在以色列海法的研发中心开发的。其实质是基于Ice Lake处理器的10nm工艺,据说可以以最小的功耗处理高功耗。加载工作。

与此同时,在Hot Chips 31活动中,英特尔展出了这款处理器,它不是我们目前熟悉的LGA的基本接口,而是目前用于固态硬盘的M.2接口,可以安装在主板上的标准M.2接口。英特尔改进了10nm Ice Lake处理器,移除了两个计算核心和图形处理器,以容纳12个推力计算引擎。 M.2接口允许它与Xeon服务器处理器交互,使服务器处理器不太关注一般逻辑计算任务,而不受推理密集型工作负载的影响。

据报道,英特尔已开发出两代NNP-I(“Nervana神经网络推理处理器”的缩写),预计将在年底前开始批量生产,而NNP-I已开始提供样品。

王维明

本文为第一作者的原创,未经授权不得转载

收集报告投诉

8月21日,英特尔最近在Hot Chips 31活动上发布了新的Nervana神经网络推理处理器“Spring Hill”,该活动专门用于大型计算中心。

据英特尔称,Spring Network的神经网络推理处理器是在以色列海法的研发中心开发的。其实质是基于Ice Lake处理器的10nm工艺,据说可以以最小的功耗处理高功耗。加载工作。

与此同时,在Hot Chips 31活动中,英特尔展出了这款处理器,它不是我们目前熟悉的LGA的基本接口,而是目前用于固态硬盘的M.2接口,可以安装在主板上的标准M.2接口。英特尔改进了10nm Ice Lake处理器,移除了两个计算核心和图形处理器,以容纳12个推力计算引擎。 M.2接口允许它与Xeon服务器处理器交互,使服务器处理器不太关注一般逻辑计算任务,而不受推理密集型工作负载的影响。

据报道,英特尔已开发出两代NNP-I(“Nervana神经网络推理处理器”的缩写),预计将在年底前开始批量生产,而NNP-I已开始提供样品。

王维明

本文为第一作者的原创,未经授权不得转载

http://dianying.topwei.com.cn