【深度】AI芯片大军来袭,演算法仍处于发展初期

2018-01-25 13:10:53 来源: 老杳吧
1.贺利氏电子与日本半田达成烧结银专利交易协议;
2.AI芯片大军来袭;
3.日本互联网巨头GMO研发出12nm挖矿芯片;
4.因应高流量/低延迟挑战 5G基带设计学问多;
5.5G时代射频IC产业拥有足够商机,2018年成长有望超过4.6%;
6.MIT设计人造突触芯片能以类似大脑神经元方式传递讯息

/>

1.贺利氏电子与日本半田达成烧结银专利交易协议;
集微网消息,半导体与电子行业内领先的材料解决方案提供商,贺利氏电子同电子行业材料与设备全球制造商日本半田株式会社(Nihon Handa)进一步深化合作,达成了烧结银专利权交易许可协议。此举将有助于双方为客户提供更加丰富的产品组合。
两家公司在烧结技术方面均拥有深厚的专业积淀。烧结银被广泛应用于电力电子模块。双方的专利组合涉及形态学、金属颗粒尺寸或烧结工具等各个方面。出于健康和价格竞争力方面的考虑,贺利氏电子和日本半田的产品采用银微粉,而非纳米粉末。
“我们的目标是开发和拥有能够为客户产品创造增值的技术。”贺利氏电子全球业务单元总裁Frank Stietz博士表示,“为了推动电子行业的发展,贺利氏将继续发扬在投资、创新、合作及技术开发方面的优良传统。我们在技术领域投资的终极目标是为贺利氏及客户提供与众不同的优势。为了行业的长远利益,贺利氏将在激烈的市场竞争中加大专利保护力度。”
日本半田总裁浅见真(Makoto Asami)表示,电子行业若要实现技术与创新的良性发展,公平交易全球合规性与知识产权保护是不可或缺的条件之一。

2.AI芯片大军来袭;
专为训练DNN量身客制的第一批商用芯片将于今年上市。由于训练新的神经网络模型可能需要几周或几个月的时间,因此,这些芯片可能是迄今为止最大也是最昂贵的大规模商用芯片…
深度神经网络(DNN)就像遥远地平线上的海啸一样涌来。
鉴于该技术的演算法和应用仍在演进中,目前还不清楚深度神经网络最终会带来什么变化。但是,迄今为止,它们在翻译文本、辨识影像和语言方面所取得的成就,清楚地表明他们将重塑电脑设计,而这种变化正在半导体设计和制造方面发生同样深刻的变化。
专为训练DNN量身客制的第一批商用芯片将于今年上市。由于训练新的神经网络模型可能需要几周或几个月的时间,因此,这些芯片可能是迄今为止最大、也最昂贵的大规模商用芯片。
新创公司追逐深度学习
业界可能会在今年看到来自新创公司Graphcore一款未使用DRAM的微处理器,以及一款来自其竞争对手——晶圆级整合先锋Cerebras Systems的产品。英特尔(Intel)收购取得的2.5-D Nervana芯片已经在生产样片了,其他十几个处理器正在开发中。同时,从Arm到Western Digital (WD)等几家芯片公司也在研究核心,以加速深层神经网络的推论部份。
“我认为2018年将是一场各种产品纷纷出炉的派对。”加州大学柏克莱分校(UC Berkeley)荣誉教授David Patterson表示:“我们刚刚开始看到许多公司开始评估一些想法。”
这个趋势非常明显,Patterson和共同作者John Hennessey在上个月发表有关运算的开创性文章最新版中,另外写了一个新的篇章。作者对内部设计提供了深入的见解,例如Patterson针对Google TensorFlow处理器(TPU)以及苹果(Apple)和Google最新智能型手机芯片中的Microsoft Catapult FPGA和推理模组发表评论。
“这是电脑架构封装的复兴,”Patterson说:“明年我们将会看到比过去十年更有趣的电脑。”
过去几年来,深度神经网络的兴起,让创业投资(VC)的资金重新回到了半导体领域。 《EE Times》最近发表的新创公司评选计划‘Silicon 60’中,列举了七家与神经网络芯片有关的新创公司,其中包括两个鲜为人知的名称:中国北京的寒武纪科技(Cambricon Technologies)和美国德州的Mythic Inc.。
“我们看到基于新架构的新创公司爆增。我自己追踪了15到20家......过去10到15年来,在任何一个细分领域中都不曾有超过15家的半导体公司同时涌现的事情”,连续创业家Chris Rowen说。他从Cadence Design Systems离职后,成立了一家公司Cognite Ventures,专注于神经网络软件
Rowen说:“Nvidia由于其强大的软件地位,将难以与其在高阶服务器训练方面竞争。而如果你去追求智能型手机市场你会觉得自己疯了,因为你必须在很多方面都做得出色。不过在高阶或是低阶的智能型手机市场,还是可能会有一些机会。”
市场观察家The Linley Group负责人Linley Gwennap表示,Nvidia最新的GPU (Volta)表现非常出色,他们调整了对于DNN的速度训练。Gwennap说:“但我当然知道这还不见得是最好的设计。”
Gwennap说,英国Graphcore和美国Cerebras是在训练芯片方面最值得观察的两家新创公司,因为他们筹集的资金最多,而且似乎拥有最好的团队。由Google前芯片设计师创立的新创公司Groq声称,它将在2018年推出一款推理芯片,能在每秒运作效能和推论中以4倍的优势击败竞争对手。
英特尔Nervana是一款大型的线性代数加速器,位于硅中介层上,紧邻四个8GB HBM2存储器堆叠。(来源:Hennessy和Patterson合著的《Computer Architecture: A Quantitative Approach》
Intel的Nervana称为Lake Crest (上图),是最受关注的客制设计之一。它执行16位元矩阵操作,资料共用指令集提供的单个5位元指数。
如同Nvidia的Volta,Lake Crest逻辑元件位于台积电(TSMC)的CoWoS中介层上,紧邻着四个HBM2高频宽存储器堆叠。这些芯片被设计成网状,提供3-10倍于Volta的性能。
虽然去年微软在DNN上使用了FPGA,但Patterson仍然对于这种方法持怀疑态度。“你为FPGA的灵活性付出了很多代价。但程式设计真的很难,”他说。
Gwennap在去年年底的一项分析中指出,DSP也将发挥作用。他说,Cadence、Ceva和Synopsys都提供针对神经网络的DSP核心。
加速器缺少共同基准
虽然芯片即将问世,但是架构师们还没有决定如何评估。
就像RISC处理器的早期,Patterson回忆说,“每一家公司都会说,『你不能相信别人做的基准,但是你可以相信我的』,那不太好。”
那时,RISC供应商在SPEC基准测试中进行了合作。现在,DNN加速器需要自己定义的测试套件,涵盖各种资料类型的训练和推理以及独立的或是丛集的芯片。
因此,由20多家主要服务器和软件制造商组成的“交易处理性能委员会”(TPC)在12月12日宣布组建了一个工作组来定义机器学习的硬件和软件基准。 TPC-AI委员会主席Raghu Nambiar表示,目标是创建无论加速器是CPU还是GPU都适用的测试。但是,这个团队的成员名单和时间架构还处于变化中。
百度(Baidu)于2016年9月发布了一个基于其深度学习工作负载的开放原始程式码基准测试工具,使用32位元浮点数学进行训练任务。它在六月份更新了DeepBench以涵盖推理工作以及使用16位元数学。
美国哈佛大学(Harvard University)研究人员发表的Fathom套件中,定义了8个人工智能(AI)工作负载支持整数和浮点数据。Patterson说:“这是一个开始,但是要成为一个让人感觉舒适的全面基准测试套件,还需要更多的努力作。”他说:“如果我们努力打造一款好的测试基准,那么所有投入工程的钱都会花得值得。”
除了基准之外,工程师还需要追踪仍在演变中的神经网络演算法,以确保其设计不会被束之高阁。
高通(Qualcomm)下一代核心研发总监Karam Chatha表示:“软件一直在变化中,但是你需要尽早把硬件拿出来,因为它会影响软件——你不得不催促让它发生。到目前为止,行动芯片供应商正在Snapdragon SoC的DSP和GPU核心上执行神经网络任务,但一些观察家预计,它将为机器学习客制一个新的模组, 放在2019年的7nm Snapdragon SoC中。
高通展示客制DNN加速器的研究范例,但它现在仍然使用通用DSP和GPU核心的软件(来源:高通)
Patterson说:“市场将会决定哪种芯片最好。现实是残酷的,但这是设计电脑让人兴奋之处。”
早期进入的业者已经进入这场机会竞赛中。
例如,Facebook最近证明,透过大幅增加封装到所谓批量大小的功能数,可以将训练时间从一天缩短到一小时。对于试图在本地SRAM中执行所有运作的Graphcore来说,这可能是个坏消息,因为这样的设计虽然降低了外部DRAM的存取延迟,但也限制存储器占用空间。
Patterson说:“这是为小批量资料封包而设计的,但几个月前的软件结果表明你需要大量的资料。这显示事情变化的速度有多快。”
另一方面,Rex Computing认为该公司正迎来一个有利的机遇。该新创公司的SoC最初是为高性能服务器设计的,使用了一种新颖的暂存器存储器。Rex Computing联合创始人Thomas Sohmers说Rex的方法消除了在虚拟页面表中快取资料的需求——因为这种使用GPU的技术会增加延迟。
因此,他说Rex的芯片性能比现在的GPU更好,特别是在处理普遍的矩阵/向量运算神经网络时。该新创公司计划6月份推出搭载256核心的16nm SoC,希望能提供256Gflops/watt的运算能力。
与此同时,研究人员正试图从32位元到1位元浮点和整数数学的一切可能,以找到最有效的方法来运算神经网络的结果。他们似乎同意的一点是,最好不要在不同的精确度之间转换。
AI演算法仍处于发展初期
深度神经网络几十年来一直在AI方面进行小部份的工作。从2012年开始,包括Facebook的Yann LeCun等研究人员开始使用特定类型的DNN辨识影像,最终以比人类更高的准确度显示令人惊叹的结果。深度学习技术吸引了研究界,现在正高速发表论文,寻求新的突破。
DNN现在提供商业服务,如亚马逊(Amazon)的Alexa和Google翻译,以及Facebook的脸部辨识。网络巨擘及其全球竞争对手,正竞相将这些技术应用于尽可能多的服务中,并期待找到杀手级应用。
微软每年都会以AI为主题举行两次员工内部会议。最近一次有5,000人参加,前SPARC处理器架构师Marc Tremblay表示,他现在领导微软在客制AI芯片和系统方面的工作。
专家坦承,他们没法完全理解为什么现有演算法能如此充份发挥。辩论主题是探讨这些网络演算法的相对有效性,例如递回(RNN)和卷积(CNN)神经网络。同时,新的模式仍在发明之中。
AMD研究员Allen Rush在最近一次关于AI的IEEE研讨会上说:“在未来五年内,演算法仍然极有可能发生改变。但我们打赌像矩阵乘法这样的最底层演算法是不会改变的。”
这就是Google以TPU所做的赌注,最新版TPU针对训练和推理工作。它本质上是一个大的乘法累加单元阵列,执行和储存线性代数常式的结果。Nervana和Graphcore的芯片预计会随之效仿。
哈佛大学前大脑研究人员Amir Khosrowshahi说,在神经网络方面取得的成就主要集中在AI领域。他曾经共同创办了Nervana公司,目前是英特尔Nervana部门的技术长。他在IEEE研讨会上表示:“由于深度学习非常成功,所以事实逐渐被掩盖了。如今,每个人都在做卷积神经网络,但这是一场悲剧......不要以为现在发生的事情一年后就一定会有成果。”
当今的DNN受到了许多关注,但仅代表更广泛AI领域的一小部份(来源:Intel)
未完,待续...
编译:Mike Zhang

3.日本互联网巨头GMO研发出12nm挖矿芯片;
集微网消息,日本互联网巨头、外汇经纪商CMO Click证券母公司GMO Internet周一发文表示,已经成功研发出了用于下一代加密货币矿机的12纳米Fin FET Compact(FFC)挖矿芯片。

该公司将这次创新描述为“迈向7纳米挖矿芯片处理技术的重要一步“。

据了解,这家日本互联网技术制造商早在去年就开始进军加密货币挖矿的硬件研发领域。

该公司表示,12纳米FFC挖矿芯片是“迈向下一代高性能挖矿计算机的重要一步”。GMO Internet强调,研发出12纳米芯片之后,下一步便是研发“7 纳米处理技术”。

GMO Internet补充说,“我们不会出售配置有12纳米FFC挖矿芯片的挖矿主板。”

GMO 是一家由分布在全球 10 个不同国家的 60 多家个体公司组成的实体,总部位于日本东京。该公司于去年 9 月份首次宣布进入数字货币挖矿行业。

4.因应高流量/低延迟挑战 5G基带设计学问多;
随着5G服务商转的脚步越来越接近,相关网络设备的需求也开始萌芽,并为相关处理器芯片业者带来新的机会。 不过,由于5G与先前几个世代的行动通讯要求大为不同,不仅要追求更高的数据吞吐量,还要具备更大的网络容量与更好的服务质量(QoS),因此5G基频处理器的研发设计,有着相当高的门坎。

恩智浦(NXP)半导体数字网络事业部全球产品经理张嘉恒表示,对于网络设备开发者跟芯片供货商来说,5G是一个全新的世代。 在以往,行动通讯技术的改朝换代,重点都放在带宽升级,以便提供给用户更快的行动上网服务。 但是在5G世代,为满足各种物联网(IoT)应用的需求,行动网络不仅要支持更高的带宽,还要具备更大的网络容量跟更低延迟、更稳固的联机,以便让行动网络可以支持数以万计的各种联网装置,或是满足工业等产业应用的需求。

对基频处理器开发来说,这意味着处理器本身必须具备极高的弹性,以便支持eMMB、URLLC与mmTC等不同的5G规格,但同时又要有很好的性能表现,否则数据吞吐量将无法达到5G要求的水平。 传统上,这两个需求是矛盾的。 要支持多种协议,最有弹性的做法是用软件来实作,但软件实作的效能远不如硬件实作;硬件实作虽然有很好的效能,但又不容易支持多重协议,特别是在标准还没有完全底定的情况下,万一标准有变动,修改起来会十分麻烦。

为了解决这个问题,恩智浦的基频处理器采取数据面(Data Plane)与控制面(Controll Plane)分离的设计架构。 Data Plane采用硬件实作,以平行运算的概念来精准地控制封包的收发跟延迟,满足5G对数据吞吐量跟联机质量的要求;至于在控制面,处理器则内建高性能通用处理器核心,来支持各种通讯协议。
张嘉恒预期,5G实验网络最慢在2019年就会展开布建,因此相关设备跟处理器的需求将在2018年开始放量。 而5G由于是采取全IP架构,台湾网通业者相对熟悉,因此有部分台湾客户确实已经打入全球电信业者的供应链。 不过,整体来说台湾业者的产品还是以硬件板卡为主,在整体方案方面,由于涉及到软件跟通讯协议,因此能提供整体方案的台厂还是很少。新电子
/>

5.5G时代射频IC产业拥有足够商机,2018年成长有望超过4.6%;
集微网综合报道,J.P. Morgan 近日公布的一份报告称,今年高端智能机成长明显触顶,预计本季 iPhone X 的生产量至少减少 50%。此消息一出,连累 Skyworks 和 Qorvo 等苹果射频 IC 供应链厂商的股价自去年 11 月至今重挫近 16%。对此,麦格理分析师出面力挺射频 IC 厂商,认为射频 IC 产业未来仍大有可为。
麦格理分析师 Srini Pajjuri 表示,2018 年是等待 5G 布建的过渡期,需要包括4x4 MIMO(多重输入/输出)、新一代无线网络标准802.11ax等技术支持,射频 IC 厂商仍然拥有足够的商机。因此,Pajjuri 认为 Qorvo、Skyworks以及博通(Broadcom)极具吸引力,呼吁投资人对其保持信心。
值得一提的是,Pajjuri 认为,今年射频 IC 产业的成长甚至有望超越半导体产业(不计存储器)。据市场调研机构 Gartner 预测,2018 年全球半导体营收预估将达到 4,510 亿美元,相较 2017 年的 4,190 亿美元增加 7.5%。如果将存储器排除在外,Gartner 预测 2018 年半导体市场的成长率为 4.6%。以此推测,2018 年射频 IC 产业的成长率有望超过 4.6%。
对于射频 IC 厂商来说,2018 年的成长商机一定离不开 5G。相较以往的 2G、3G,以及 4G ,5G分别在通讯频段、MIMO 多天线和载波聚合这三大技术方面做了很大的改变,因此 5G 的爆发性需求必将加速射频 IC 市场的高速成长。
可以说,中国在 5G 的发展进程中相对靠前。目前,中国已发布 5G 技术研发试验第三阶段第一批规范,预计 2018 年底 5G 产业链主要环节基本达到预商用水平。尤其在 5G 芯片领域,中国已取得十分积极的进展。
一方面,中国政府高度重视 5G 芯片的发展;另一方面,中国企业和科研院也围绕 5G 芯片积极布局。其中,华为海思和展讯等企业正在加快 5G 基带芯片研发进程;PA 和滤波器等 5G 高频器件的研发已陆续展开;三安光电、海特高新等企业在化合物半导体代工领域也有所突破。
值得注意的是,在射频领域,尤其面向高频应用的 BAW 和 FBAR 滤波器方面,与国际射频厂商 Qorvo、Skyworks和博通(Broadcom)相比,国内厂商依然相差甚远。
据集微网了解, Qorvo 不仅作为 3GPP 代表协助制定 5G 标准,并且与全球领先的无线基础设施制造商、网络运营商、芯片组供应商和智能手机制造商均已密切合作。目前 ,Qorvo 5G 频段覆盖范围可以支持美国近期扩展的 600MHz Band 71 频段。在扩展基础设施产品组合之后,将成为迄今唯一能支持 6GHz 以下频段到 39GHz 所有 5G 通道频段的供应商。
此外,Qorvo 在 5G 相关领域也已积累了许多核心技术。从 LowDrift™ 和 NoDrift™ 滤波技术、天线调谐技术到 RF Fusion™ 和 RF Flex™ 射频前端解决方案,再到更加基础的 GaN 技术,Qorvo 提供了行业领先的核心架构、滤波器和开关产品。(校对/小秋)

6.MIT设计人造突触芯片能以类似大脑神经元方式传递讯息
尽管科技已经如此进步发达,但对于那些在人工智能(AI)领域的研究者来说,让计算机仿真大脑活动仍是一项庞大的任务,如果硬件能够设计更像大脑的硬件,那么管理起来将会更容易。



是的,大家都是这么想的,那么话说回来,究竟这个「期望」有多么困难? 日本研究单位 5 年前就曾经进行过一项大脑活动仿真测试,这个运用世界上最强大超级计算机之一所进行的例子应该能作为一些参考。

在 2013 年时,日本理化学研究所(Riken)运用超级计算机「京」(K computer)进行的对大脑活动的仿真测试;「京」一共使用了 82,944 个处理器和 1 PB(约 1,000 TB)主存储器,几乎相当于当时 25 万台计算机的运算单位。

而这样一台计算机为了仿真大脑中 10.4 兆突触所连接的 17.3 亿神经元活动的 1 秒钟,就花上了 40 分钟;尽管听起来已经非常厉害,但事实上是,这一切仍只是大脑活动中的百分之一。

即使是现在,大脑仍是比任何计算机都还要更为强大,它包含着 800 亿神经元和超过 100 兆个神经突触,随时都在控制讯息的通过,相较之下,目前计算机芯片仍是以二进制语言在传输讯号,每一条讯息都以 1、0 在进行编码。

科学家认为,如果芯片运用类似突触的连接方式,计算机使用的讯号将可能更加多样化,进而实现「突触式」的学习。

▲即使是科技进步的现在,大脑仍让所有计算机望尘莫及。 (Source:pixabay)

在大脑中,突触负责「管理」讯息的传递,而神经元则会根据穿过突触的离子数量和种类来动作,这些都帮助大脑识别模式、记住事实并执行任务;科学家将这种新兴研究领域称为神经形态工程学(Neuromorphic engineering)。

迄今为止,想要让芯片拥有这种学习方式已被证明是困难的,但 ScienceAlert 报导指出,随着麻省理工(MIT)工程师成功克服障碍设计出一种由硅锗(SiGe)制成的人造突触芯片,未来「突触式」学习的发展将有可能达成。

过去神经形态芯片的设计是使用非晶体作为「开关媒介」,分隔开两个导电层以起到突触的作用。 但这种方法存在的问题是,如果没有定义结构性的传播路径,信息就会有无数的路径可以传递,而这带来芯片的不一致及不可预测性。

为了避免非晶体为芯片带来的不均匀性,团队创造了只有一维信道的硅锗晶格,确保离子每次流动时都使用完全相同的路径,接着团队再使用这些晶格打造了神经形态芯片,就像是大脑中神经元之间的电流一样, 这种芯片也可以精准的控制其中流动的电流强度。

团队计划下一步将实际打造出能够执行手写识别的芯片,最终目标则是创造携带式神经网络装置。 在 Kim 看来,这项研究就像一块垫脚石,带领人们走向生产真正的 AI 硬件目标前进,「我们希望最终能以一个指甲大小的芯片,来取代巨大的超级计算机。 」

这项研究已发表在《自然-材料》(Nature Materials)期刊中。technews

文章来源:http://laoyaoba.com/ss6/html/36/n-661136.html

责任编辑:星野
半导体行业观察
摩尔芯闻

热门评论