Intel携手Facebook打造首款神经网络处理器

2017-10-19 18:57:22 来源: 数位时代
日前,Intel 宣布要与Facebook合作,推出首款专为机器学习设计的「Nervana」神经网络处理(NNP)系列芯片,是一款专为人工智慧所设计的快速芯片,提供高效率的AI运算,预计在今年年底就能出货。
 
为更多产业带来高效率的AI 运算能力
 
「我们很兴奋在向市场分享这款新世代AI硬体时,能跟Facebook 密切合作,共同分享技术见解。」Intel 执行长布莱恩‧科再奇(Brian Krzanich)在《华尔街日报》举办的WSJDLive全球科技会议上,宣布与Facebook 合作推出首款神经网络处理系列芯片,且将在今年年底前出货,并表示Intel 有信心能够超越去年设定的目标,在2020 年时让AI 效能提高100 倍。
 
科再奇认为透过「Nervana」神经网络处理器,可以为许多产业带来高效率的AI 运算能力,他也列举了四项例子,像是在医疗保健AI 可以让早期诊断提高精准度、增进癌症、帕金森病研究;社群媒体可以为客户提供更个人化的服务;无人车未来能在汽车产业更快实现;AI 也能帮助研究人员掌握风速、水温数据,可以有效预测飓风轨迹。
 
加快深度学习,Facebook:改变对AI 软硬体建构的策略
 
去年八月,Intel 以3.5亿美元收购深度学习新创业者Nervana Systems,这次打造的首款基于神经网络处理的AI 芯片,采用标准缓存层次结构,并使用软体来管理芯片上的内存,如此一来便能加快深度学习模型训练时间。
 
跟PC芯片不同,Nervana 神经网络处理芯片是一款特殊的集成电路,是为训练和执行深度学习演算法所打造,Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能,将使用可处理大量数据的「Flexpoint」格式达到「大规模双向数据传输」,意思是如果将大量的芯片连接在一起,就可成为一个巨大的虚拟芯片,能达到更大规模的深度学习模型,此架构目标,是要打造出能弹性应付深度学习的处理器,当处理高强度运算要求时,可以更有效率。
 
科再奇在WSJ D.Live 科技会议上透露,Facebook 在试用过Nervana 神经网络处理芯片后,认为这可以改变公司对AI 软硬体建构的策略。
 
挑战NVIDIA,Intel 曾推出自我学习型芯片Loihi
 
NVIDIA 过去一直在AI 硬体发展遥遥领先,目前多数AI 系统都以CPU (中央处理器)运作处理为基础,但在NVIDIA 的推动下,许多深度学习应用都将GPU(图形处理器) 列为主要加速应用的基础,CPU 只用来作为指令运作或系统控制等需求使用。
 
为了因应产业以GPU为AI系统发展的趋势,今年九月Intel 推出一款具备自我学习能力的处理器芯片「Loihi」,这款芯片采用14纳米制程技术,由13万组类神经元及超过1.3亿组类神经网络系统组成,每组类神经元具备学习引擎,能够彼此沟通,模拟人类的大脑运作,达到自我学习的效果,不用再额外提供学习数据,只需持续运作就能应付各种不同的运算模式。
Loihi 芯片预计在2018 年上半年与部分大学与研究机构合作,来推动未来AI 发展。
责任编辑:星野
半导体行业观察
摩尔芯闻

热门评论