加入收藏 | 设为首页 | 会员中心 | 我要投稿 阜新站长网 (https://www.0418zz.cn/)- 基础存储、数据处理、视频终端、内容创作、网络安全!
当前位置: 首页 > 大数据 > 正文

英特尔首次公开AI加速器芯片 脸书已使用百度参与开发

发布时间:2021-10-21 16:34:36 所属栏目:大数据 来源:互联网
导读:8月22日,英特尔公布了即将推出的两款针对大型数据中心设计的处理器,这是该公司首次披露高性能人工智能加速器产品。 这两款芯片是Nervana神经网络处理器系列产品,其中一款用于训练,另一款用于推理,这是人工智能算法形成的两个关键环节。2016年8月,英特
8月22日,英特尔公布了即将推出的两款针对大型数据中心设计的处理器,这是该公司首次披露高性能人工智能加速器产品。
 
这两款芯片是Nervana神经网络处理器系列产品,其中一款用于训练,另一款用于推理,这是人工智能算法形成的两个关键环节。2016年8月,英特尔收购美国创业公司Nervana Systems,随后将其与自身业务整合,并追加3.5亿美元的投入,用于研发和自身产品匹配。
 
不仅如此,英特尔还表示,这些产品是近两年在投资了以色列人工智能公司Habana Labs和NeuroBlade后推出的。Habana Labs的解决方案Goya性能优于目前数据中心常用方案的1到3个数量级,而NeuroBlade的优势在于降低成本和功耗。
 
与通用芯片不同,人工智能专用加速器强调的是适当的时间提供给合适的智能。英特尔全球副总裁兼人工智能产品事业部总经理Naveen Rao表示,针对复杂的人工智能应用,数据中心和云端需要提供通用计算以及专门的加速。
 
英特尔披露用于训练的NNP-T可以进行定制,以便加速各种负载,而用于推理的NNP-I利用10纳米制程技术提升了每瓦性能。事实上,这些产品将与谷歌的TPU、英伟达以及亚马逊AWS自研芯片竞争。
 
与专为谷歌机器学习框架TensorFlow设计的TPU不同,英特尔的产品支持百度、Facebook以及谷歌等提出的主流机器学习框架。2019年7月,Naveen Rao曾在百度人工智能开发者大会上宣布,为了提升训练模型速度双方合作开发处理器产品。此次英特尔发布产品时还宣布,Facebook正在使用这些产品。

(编辑:阜新站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读