电话:+86 574 88168918 邮箱:sales@cobinet.cn

首页-新闻动态-新闻详情

Gyrfalcon Technology入局AI芯片战场,研发存储计算融合一体的本地并行AI运算架构

发布时间:作者:cobinet浏览:347次来源:千家综合布线网
CobiNet(宁波)推荐文章:

[导读]Gyrfalcon Technology成立于2017年,公司成立时正式AI芯片备受关注之时。深度学习技术的成熟及应用,原有的芯片算力已经难以应对巨大的算力消耗……

2017年7月,Intel发布了基于Movidius技术的神经计算棒,售价79美元,可以接入多种设备,部署深度学习推理任务。半年之后,Laceli™ 计算棒问世,根据官网参数,性能是Movidius神经计算棒的90倍, 售价仅为69美元。

推出这款产品的,正是硅谷的一家AI芯片初创公司 Gyrfalcon Technology。在此之前,公司已推出“光矛处理器 Lightspeeur® 2801S”,于2017年9月成功流片,基于自研的APiM架构,有28000个并行神经计算核,180mW功耗下基于VGG模型每秒处理图片150张,适用于CNN、RNN等常见深度神经网络的模型训练及推理。

Gyrfalcon Technology成立于2017年,公司成立时正式AI芯片备受关注之时。深度学习技术的成熟及应用,原有的芯片算力已经难以应对巨大的算力消耗。简单来说,深度学习的过程可以抽象理解为利用大量标注的数据进行训练,训练出一个行之有效的模型,再将这一模型运用于新数据的推理。因为这一算法是建立在多层大规模神经网络之上的,后者本质上是包含了矩阵乘积和卷积操作的大运算量函数,往往需要先定义一个包含回归问题的方差、分类时的交叉熵的代价函数,再数据分批传递进网络,根据参数求导出代价函数值,从而更新整个网络模型。这通常意味着至少几百万次的相乘处理,计算量巨大。

有多年半导体行业经验的董琪、杨林、林建国、Terry Torng也看中了其中的市场机遇,于2017年一起创业,在硅谷创办了Gyrfalcon Technology,希望打造AI芯片。

2017年,团队推出了第一款芯片,名为Lightspeeur®光矛系列智能神经网络处理器。从官网公布的性能参数上看,这款产品采用了28nm制造工艺,片上集成高达28000个运算单元,单芯片峰值运算能力为5.6TOPS,效率能耗比达到9.3Tops/W,180mW功耗下基于VGG模型每秒处理图片150张,支持 常见的多种网络模型,同时支持标准的开源框架,如 Caffe, TensorFlow和 MXNet,表现亮眼。

之所以能做到这一点,团队分析主要是因为两大创新。一是采用了不同于传统处理器架构,而是采用了二维的矩阵芯片架构,第一代的芯片产品已经可以做到 168核X168个核的矩阵架构,相当于片上集成28000个运算单元。

传统的处理器基本是冯诺依曼架构,如Intel X86 CPU,单点架构,基于指令集处理各种简单或复杂的任务,;或是类似NVDIA GPU这样的一维架构,可以做大量并行计算,适用图形计算,计算单元大幅提高但总量依然受限,功耗很高。而基于Gyrfalcon Technology的二维矩阵式结构,单品可以轻易集成几十到几十万计算单元,多单品之间还可随意无缝互联,非常适合不同场景下的AI计算。,为降低功耗和发热,其时钟设计可以很慢,但由于计算单元海量增加,芯片整体速度却会远远超过其他传统架构的处理器。目前,团队已经为这一技术申请了专利。

二是自研了 APiM架构(存储计算融合一体的本地并行AI运算),消除了数据搬运的环节,解决了数据搬运墙难题。AI算法在芯片实现时遇到的核心问题不是计算资源而是存储问题,强如GPU提供众多的计算资源,但实际计算能力与计算资源大为降低,很多情况下芯片80%左右的功耗都用于了数据搬运上。

Gyrfalcon Technology的 APiM架构提升内存的地位,将数据和运算写在了内存里,相当于减少了一半以上的能耗。团队告诉36氪,近期他们在ARM的云端AI服务器测试时,节省了90%左右的电量。

Gyrfalcon Technology告诉36氪,之所以能做到上面的这些创新,与团队成员的经历、背景相关。首席科学家杨林博士毕业于复旦大学电子工程系,后获清华大学无线电系硕士和美国加大伯克利电子工程系博士学位,研究领域为图像处理、神经网络、图像识别和深度学习芯片,拥有近30年通讯、数字电视、芯片设计工作经验,他是细胞神经网络(CNN)和中国数字电视传输标准核心技术发明人,拥有CNN领域30多项中美专利。CEO董琪毕业于清华大学微电子专业,先后获得学士和硕士学位,是图像传感器专家,拥有20多年国际半导体开发与生产管理经验,曾是美国OMINVISION公司初创管理团队成员,先后担任技术开发副总裁和市场拓展副总裁。

另一方面,要实现这样的创新,还需要更多底层技术的支持。比如,采用APiM的架构,也意味着对内存的要求提升,但目前市面上的DRAM、RRAM、Flash等存储元器件,虽然技术成熟,但各自都存在某种使用上的缺欠,如漏电、功耗大、性能表现随环境变化不稳定等等,,需要在材料方面创新。团队中的资深技术副总裁Terry Torng,是明尼苏达大学材料工程系博士,有近30年磁性记忆、磁性材料、高温超导、微电子机械系统和传感器研发经验,是高温超导YBaCuO、93K发明人之一,带领团队研发了适用于AI芯片的新材料。

Gyrfalcon Technology的产品,目前可以适用于深度学习的训练、推理环节,同时可以适用于云端和终端。团队分析,推理环节会是未来AI芯片的重要应用场景,而在云端团队很难撼动NVIDIA的优势,因此主要聚焦终端的推理环节。

目前的产品主要包括单芯片、计算棒、板卡等多种形态,适用于移动边缘计算、智能监控、智能玩具、、VR AR、、自动驾驶等。根据此前腾讯科技的采访,公司目前已经与一家自动驾驶公司启动无人驾驶深度学习的产品合作,与韩国手机品牌开始AI手机方案合作、与日本知名企业合作专用AI服务器、与中国制造业知名企业联合启动AI工业智能自动化项目、以及与国内安防企业筹划真正具备本地AI识别能力的摄像头等等。

总裁林建国告诉36氪,搭载Gyrfalcon Technology芯片的手机将于今年7月左右正式推出,芯片将主要用于支持一款图像相关的应用。第二代产品叠加了新材料内存技术,在能耗、存储能力上将实现量级提升,预计于2018年第四季度推出。

现阶段,Gyrfalcon Technology组建了40人左右的团队。除董琪、杨林、Terry Torng有半导体行业的技术、研发背景外,软件部总裁张文涵是清华大学电子工程系博士,有20多年图像视频信号处理研发经验,专注于计算机视觉及深度学习及其ASIC芯片架构,曾先后任职于意法半导体、Genesis Microchip、凌讯科技、Motorola 担任高级技术及管理职位。

此外,总裁林建国毕业于清华大学经济管理学院,后在美国南加州大学取得MBA学位,有30年通讯、IT、互联网等高科技行业国内国际创业以及企业管理和运营经验,曾在世界500强企业分别担任北美战略总监、全球业务总经理、美国公司总裁等职务。 市场付总裁雷兵曾在Syncomm、C2 Microsystems、ArcSoft、Electronic Business等多家芯片、电子类公司担任CEO、全球营销及商务拓展副总裁等职务,在对专业技术进行市场化、全球战略合作方面有经验。

至目前为止,公司已经完成来自中、日、韩的两轮融资,中国上市公司华西股份有参投。团队透露,公司2018年将有望实现盈亏平衡。

文章编辑:CobiNet(宁波)  
本公司专注于电讯配件,铜缆综合布线系列领域产品研发生产超五类,六类,七类线,屏蔽模块,配线架及相关模块配件的研发和生产。

欢迎来电咨询0574 88168918,邮箱sales@cobinet.cn,网址www.cobinet.cn

相关新闻

 

©2016-2019宁波科博通信技术有限公司版权所有浙ICP备16026074号