AI应用如何影响芯片设计

来源:靓丽范 3.04W

AI技术的发展对芯片设计带来巨大挑战的同时,我们也可以将AI应用于芯片设计过程中。

AI应用如何影响芯片设计1

去年,Imagination失去最大客户苹果引发业界巨大的关注,最终Imagination被Canyon Bridge收购成为了一家中资公司。Imagination被收购之后财务非常稳健,并且越来越重视中国市场。12月4日,Imagination在深圳发布了最新的的神经网络加速器(NNA)架构PowerVR Series3NX和第九代GPU系列新品PowerVR 9XEP、 9XMP和9XTP。

神经网络加速器提升PPA同时注重灵活性

最新推出的PowerVR 3NX系列基于前代产品,Imagination Technologies视觉和人工智能产品管理高级总监Neal Forse表示:PowerVR 3NX系列基于我们屡获殊荣的2NX系列产品,相比2NX系列,3NX系列实现了芯片面积40%、性能效率近60%的提升,同时降低了35%的带宽需求,可以满足汽车、移动设备、物联网等嵌入式设备市场的需求。

Imagination Technologies视觉和人工智能产品管理高级总监Neal Forse

Neal强调, 3NX系列在2NX系列之所以有明显的提升,是因为Imagination进行了多方面的改进和创新。但对于具体做了哪些改进和创新的问题,Neal对雷锋网表示更多细节不方便透露。

因此,我们只能从3NX系列提升了解Imagination的新品。相比2NX系列AX2145 1Tops和AX2185 4.1Tops的运算性能,3NX系列的两个同级别新核AX3145和AX3385的性能分别是1.2TOPS、 5TOPS,还有三个新核AX3125、AX3365、AX3595,对应的性能为0.6TOPS、2.4TOP、10TOPS。Imagination此次还推出了多核产品,性能从20TOPS到160TOPS不等。

还有值得一提的是,除了性能覆盖0.6TOPS到160TOPS满足应用的多样性需求,PowerVR 3NX-F(Flexible)可以提供更多的.灵活性。之所以要推出这个架构,Neal表示有两方面的原因,一方面是可以让芯片设计公司在单核上做差异化,利用IP核构建神经网络加速器,而不需要把第三方GPU整合在一起,差异化对激烈的市场竞争而言非常关键;另一方面是神经网络行业正在快速发展,新技术、新框架需要可编程性和扩展性更强的SoC

除此之外,3NX在安全性方面也有提升。同时,为迎合快速发展的市场,Imagination新的PowerVR工具也进行了多项扩展,为的是更好地映射新兴的网络模型、提供灵活性和性能优化的理想组合。

那么,满足AI需求硬件还是软件更加重要?Neal认为软件和硬件同等重要,硬件的异构可以实现更高效率,但缺少软件也没有意义。异构架构是Imagination拥抱AI的策略,软件方面Imagination的SDK里有Open API,塔建在Open CL之上,C++语言就可以在异构的IP中运行,降低用户使用复杂性的同时最大化灵活性。

Imagination的第一代神经网络加速器产品2NX系列已经授权的用户主要集中在移动设备和汽车市场,并且有两家中国的手机厂商也使用了2NX神经网络加速器。3NX除了移动和汽车两大市场之外,智能相机监控、消费电子(尤其是数字电视)、低功耗IoT智能设备都是关键市场。

另外,Imagination Technologies副总裁兼中国区总经理刘国军表示:“国内包括监控、手机、物联网领域的公司都在评估我们的神经网络加速器。我们也在发展中国的生态系统,与手机厂商、OEM厂商直接一起工作,了解他们要做的AI应用,我们设计出更合适的AI的处理器去满足,我们从早期就介入。

AI应用如何影响芯片设计
  

Imagination Technologies副总裁兼中国区总经理刘国军

这就意味着,AI的发展需要软件和硬件更好地结合,Imagination与手机和OEM厂商的紧密协作AI应用已经开始影响AI芯片的架构设计,性能、功耗、芯片面积、灵活性都是AI芯片的关键特性。

第九代PowerVR GPU带宽和内存占用率至少节省50%

AI芯片市场的竞争格局未定,在移动GPU领域Imagination具备领先优势,PowerVR GPU的持续迭代是其保持竞争优势和拓展市场的关键。Imagination Technologies PowerVR图形处理商务运营副总裁Graham Deacon指出,如今手机游戏市场的改变以及特殊的应用需求让GPU朝着成本更低,性能更高、更多灵活性以及更小芯片面积的方向发展。为了应对市场的趋势,Imagination的第九代PowerVR GPU新品包含 9XEP、 9XMP和9XTP,满足从低端到高端市场的需求。

Imagination Technologies PowerVR图形处理商务运营副总裁Graham Deacon

据介绍,XEP主要关注GUI,也就是图像界面,包括休闲游戏、填充力密度,最小面积上提供最高的填充率。9XEP可以实现每个时钟周期1-8个像素,16-64个FP32 OPS的性能,主要面向数字电视和低端手机市场。9XMP可以在最低的面积有最佳的计算能力,性能为每个时钟周期4-8个像素,128-256 FP32 Ops,主要是瞄准中端手机市场和低端汽车市场。9XTP是旗舰型产品,在密度、功率、效率方面都有提升,并且架构也是可伸缩的,性能可以达到每时钟周期8个像素,192FP32 Ops,甚至超更高。

另据了解,9XEP和9XMP都基于Rogue架构,这个架构已经非常成熟,不过9XEP架构进行了微调,9XMP将每个集群的ALU扩展了2倍,位宽从16位扩展到32位,目的都是提高性能。9XTP则是基于Furian架构,该架构由Rogue演变而来。Graham Deacon表示,虽然Furian架构还不够成熟,但这也意味着我们还有很多机会进行改进,也能让这个架构更具灵活性。

虽然架构有所不同,但相同的是新GPU都采用PVRIC4技术,PVRIC4是Imagination图像压缩技术的最新一代,可实现随机访问视觉无损图像压缩,确保带宽和内存占用率至少节省50%,并使系统能够去克服性能带宽限制。与Imagination的上一代GPU相比,新的GPU系列还提供性能/功耗/面积和时序优化,以及包括可降低合成的工作负载带宽和成本的全新alpha缓冲/单元模块提示等在内的新功能。

从Graham Deacon展示的图中可以看到,借助9XMP可以提升图像的质量,让游戏中的图像细节更加真实,不过对比三款新GPU的显示效果,其显示的图像细节和效果也有着容易分辨的差别。

还需指出的是,PowerVR GPU利用了一项被称为分块延迟的渲染(TBdr)技术,TBDR保证了几乎所有的图形处理都在芯片上完成,并将存储带宽的需求降至最低。基于多方面的优势,过去的25年PowerVR GPU已经支持了最受欢迎的游戏和街机系统,并推动了移动设备的图像革命。如今PowerVR GPU已经在汽车虚拟仪表、娱乐系统中占有非常高的市场份额,手机、数字电视也将继续是PowerVR GPU的重要市场。

还有,新的GPU可以与PowerVR Series3NX神经网络加速器配对使用。刘国军也表示:中国许多做汽车电子的公司以前在后装市场,现在他们想要进入前装市场,产品就需要满足车规的要求。因此,我们会与芯片设计公司和Tier1合作,把我们的GPU和神经网络加速器都放到车规的生态里,共同满足汽车市场的需求。

AI应用如何影响芯片设计2

Google于美国当地时间周三重磅推出了Edge TPU芯片,这款芯片将为边缘设备提供强大的计算和学习能力,或将成为Google边缘计算战略的重要组成部分。

据了解,Edge TPU芯片是功能强大的云TPU(Tensor Processing Unit)处理器的简化版本,是专门设计的加速器芯片,用于在边缘运行TensorFlow Lite机器学习模型,它将使传感器和其他设备能够更快地处理数据,并且极大突破了边缘计算设备的'狭小空间和功率限制。

另外,Edge TPU可以自己运行计算,而不需要与多台强大计算机相连,因此应用程序可以更快、更可靠地工作,它们可以在传感器或网关设备中与标准芯片或微控制器共同处理AI工作。

自2015年以来,Google一直在使用TPU来加速自己数据中心的某些工作负载,而不是依赖Nvidia等供应商提供的商用硬件。而这次高调亮相的Edge TPU将在一种与Raspberry Pi不同的模块化主板上得到发布,它将落入可以修补和构建独特用例的开发人员手中。但更重要的是,它将有助于吸引那些已经使用TensorFlow作为其主要机器学习框架的开发人员,他们的想法是能够更快更高效地运行这些模型。如果成功,将在TPU和TensorFlow级别上将这些开发人员进一步锁定到Google的云生态系统中。

Google Cloud IoT副总裁Injong Rhee称:

这些产品使Google成为唯一一家拥有集成软件和定制硬件堆栈的云服务提供商,该产品将用于在云端和边缘实现机器学习和物联网。

AI应用如何影响芯片设计 第2张
  

虽然亚马逊拥有云计算的大部分堆栈,但看起来Google更希望拥有整个AI堆栈,而不仅仅是提供按需GPU作为让开发人员在该生态系统中运营的权宜之计。

Google Cloud IoT产品管理负责人Antony Passemard手持Edge TPU芯片原型

此外,Google还在今天发布了Cloud IOT Edge软件和Edge TPU开发套件,Cloud IOT Edge是使用Edge TPU运行的软件,它由两个组件组成:Edge IOT核心网关功能和Edge ML。Cloud IOT Edge基于TensorFlow Lite可以在Android Things或基于Linux OS的设备上运行。Edge TPU开发套件包括一个模块系统(SOM),它结合了Edge TPU,NXP CPU,wi-fi和Microchip的安全元件。这将在10月份提供给开发人员。

Google并没有让Edge TPU与传统芯片竞争,这对所有芯片供应商和设备制造商都非常有利。

尽管Google Cloud IoT副总裁Injong Rhee在努力打消芯片界对其的负面评价与担忧,但事实上,随着大型公司和新兴创业公司的芯片领域竞争日趋激烈,这些用例对大公司来说非常重要。对于Google来说尤其如此,它也希望在一个有Caffe2和PyTorch等多种选择的世界中拥有实际的开发框架。

2017年,谷歌就表示其AI芯片正变得更具战略重要性。另外Google Cloud CEO Diane Greene 在Google Cloud Next 2018 上一直强调称,AI已经融入到 Google 所做的每一件事情中去。当然,对于芯片,对于边缘计算,对于物联网,它们更是如此。

AI应用如何影响芯片设计3

| 英特尔:28核CPU将到来,启动AI for PC计划

Intel在台北电脑展上除了特别纪念版Core i7-8086K处理器之外,还带来了先前预告的代号Whiskey Lake U系列处理器,以及针对入门机型的代号Amber Lake Y处理器。搭载这两款处理器的产品将在今年秋季陆续面世。

Intel还预告,年底前将会推新款Core X系列,以及全新Core S系列处理器,其中包含可用于桌面的28核心设计处理器,搭配HT技术更可以发挥56线程的运算效果,预计将在CES2019展会上有更具体的消息。

尽管移动设备已经超越了PC,但是Intel仍对PC市场充满信心,Intel称PC将围绕足够强劲的性能、5G网络的连续性、超长的电池续航、适应性终端以及人工智能五个方面持续进化,最终转型为更多元带来更多可能的运算平台。

在电池续航部分,Intel希望通过研发低功耗显示技术,降低屏幕耗电,以提供更长的电池使用时间,该技术已经被夏普、群创使用,目前部分笔记本产品续航能力可达20小时,未来或延长至25-28小时。网络连接的部分,积极抢滩5G市场的Intel也宣布将在明年与宏碁、华硕、戴尔、惠普、联想联手,推出具有5G连接能力的笔记本电脑和二合一设备。

Intel还启动AI for PC 计划,鼓励开发者运用OpenVINO工具套件、微软Windows ML开发PC上的AI应用。OpenVINO是Intel上个月推出的工具包,通过OpenVINO,使用者可以基于云端,开发高效能的视觉分析应用,并将其部署到各种产品中。

| AMD : 32核心CPU与7nmGPU,优化人工智能

昨日Intel刚刚预告年底前将推出28核心56线程处理器,AMD接着在今天发表了核心数量高达32核心的第二代 Threadripper处理器,最高可达到64线程运作,而且在今年第三季度就会上市。从现场展示的照片可以得知此次推出的处理器由4组8核心模组组合而成,不过接口依然是TR4,能够兼容现在的Z399系列主板。现场也实际进行了效能比较,多核心明显缩短了渲染运算所需要的时间。

除了32核处理器之外,AMD还展示了全球首款采用7nm工艺制程的GPU,该芯片内置了四颗二代高带宽显存,显存容量达到了32GB,量产后未来将用于设备自主学习领域,并且该芯片的技术也会被消费级显卡Radon所采用。据了解这款7nmGPU还对人工智能和深度学习做出了优化。

AI应用如何影响芯片设计 第3张
  

| 英伟达:推机器人开发平台,发布机器人AI芯片

在展前活动中,英伟达发表了全新机器人平台Isaac,包含发挥机器人大脑角色的Jetsen Xavier芯片以及软件开发工具与测试套件,帮助企业和开发者能够以更低的门槛开发和训练机器人,CEO黄仁勋希望有朝一日,制造业、宅配服务、仓储物流业以及更多产业,将拥有数十亿台的智慧机器。

NVIDIA Isaac平台核心是Jetson Xavie芯片,是全球首款专为机器人设计的AI芯片。包含一个具备Tensor核心的Volta绘图处理器、一颗八核心ARM64架构Xavier中央处理器、双NVDLA深度学习加速器、一个图像处理器、一个视觉处理器、及一个影片处理器等

可同时计算感测器、定位、电脑视觉,使机器人知道所在位置、感知周遭环境、预测物体运动,采取正确的反应动作。还可以根据产品设计需要,以不同规格应用在车联网中,搭配Isaac SDK开发套件,用于脸部追踪、眼球追踪、姿势手势侦测等,还可以先在虚拟环境中进行测试。

| 高通:推骁龙850,强攻笔记本市场

在5日的展会上,高通推出了新款骁龙850处理器,骁龙850是840的加强版,为WIN10笔记本专门打造。除了主处理芯片,也配备高通数据芯片Snapdragon X20 LTE及高通自行开发的引擎。CPU速度从2.8GHZ提升到2.95GHZ,相较于去年同类型产品骁龙835提升了30%的性能,让电池的续航能力也延长至25小时,兼容最新的微软64位ARM处理器更新和Windows ML学习框架。

骁龙850的推出,有意瓜分由Intel和AMD独大的轻薄笔记本市场,而来自三星方面的消息则称,搭载这款处理器的常时联网笔记本将在年内面世。相较于一般14纳米的解决方案,高通10纳米的制式可以省去散热风扇的设计,能够让笔记本电脑更轻薄,也给笔记本电脑的发展带来更多想象空间。

而今日高通表示,5G应用的部分,已经与全球18家运营商和20家终端ODM、OEM合作,相关的终端产品今年年底就会出现,2019年会更有5G的智慧手机和5G大规模的测试。

| 联发科:推首款5G数据芯片 关注智能家居车联网

6月5日的记者会上,联发科推出首款5G数据芯片M70,明年7月正式上路,目前已经取得欧洲、中国等国运营商的认证,该芯片将支持5G、NR(New Radio),并且符合3GPP Release 15的最新标准规范,具备5Gbps传输数率。目前联发科正在与Nokia、NTTDocomo、中国移动、华为等厂商进行合作,预计明年就有搭载该芯片的产品推出。同时,联发科也预告即将在6月中旬与3GPP公布首波5G联网技术规范时,将会进一步公布M70的具体细节。

不过,M70数据芯片是一款独立型的芯片,必须依赖于其整合的数据芯片,才能在市场上放量。搭载相关芯片的终端将在2019年出现,面对高通与大陆品牌商签订OMU,未来会采用高通5G相关技术推进产品,联发科表示会持续在中国大陆地区经营并与相关客户合作。

据统计,全球智能手机每三台就有一台联发科芯片,新兴国家甚至每两台就有一台,联发科手机芯片除低工耗优势外,还在人工智能应用具有优势,采用CorePilot异构计算机技术选择最有效率运算单元,降低手机功耗并将温度控制在40度以内。影像方面,还在影像曝光、饱和度、人脸识别等技术上也大幅度提升。

除了将人工智能引入智能手机,联发科还打算将其引入智能家居与车联网。引入AI技术后,智能家居的舒适性、安全性和可行性都将有所提高,而车联网应用领域也相当宽广,无人车必要的雷达和摄像机,联发科都有相关产品推出,不过由于系统厂商认证需要时间,但应该不会太遥远。

与此同时,联发科旗下采用开放架构的Neuro Pilot平台也将由移动装置扩展到更多终端装置使用,采用弹性设计、异质运算,并且结合高效APU,让终端运算运用发挥更大的效益。此外,联发科也透露旗下首款7nm产品已经准备上产,预期能在电力损耗、效能运算中取得更好表现。

由于昨日恰好是联发科代工厂台积电董事长张忠谋裸退的日子,曾一度是张忠谋钦定接班人的联发科董事长蔡力行也被问到此事对于联发科的冲击。蔡力行表示台积电是联发科重要的合作伙伴,有长期紧密的合作关系,对于台积电刘德音、魏哲家两位新的领导团队的能力也绝对有信心。

针对中兴通讯以及中美贸易战的问题,蔡力行强调,中美贸易战不会影响联发科在这两个市场的表现,都会推出竞争力强的产品与技术。而针对中国大陆加速半导体自主科技的发展,联发科是否可能与中国大陆有合作计划的问题,他们的回答相对谨慎,称对于未来参与中国大陆官方的自主科技研发,联发科在适当机会与符合法规前提下,任何的合作都会考虑。

热门标签