【契机】黄仁勋:GPU加速运算成为延展摩尔定律主要模式
时间:18/05/31
1.苹果三星也救不了智能手机处理器市场萎缩
2.NVIDIA黄仁勋:GPU加速运算成为延展摩尔定律主要模式
3.高通首款XR平台发布,可与骁龙845 VR/AR体验媲美?
4.联发科MediaTek Sensio升级,MT6381将迎来应用落地?
5.NVIDIA发布HGX-2 AI运算性能更上层楼
6.瞄准自动驾驶!英特尔与清华大学、中科院启动为期5年合作

1.苹果三星也救不了智能手机处理器市场萎缩

集微网消息,市场调研机构Strategy Analytics最新发布了一份统计报告,主要内容为2017年全球智能手机处理器的出货、营收及分布情况。


智能手机处理器市场萎缩

Strategy Analytics的报告显示,2017年全球智能手机处理器市场萎缩5%,总销售额下降到202亿美元。

其实,这并不是一件难以想象的事情。自去年开始,全球智能手机的出货量由于各大主要市场逐渐成熟、新兴市场开拓缓慢等多方面因素的影响,出现了一定程度的萎缩,出货量也接连下滑,即便强如苹果、三星也是力不从心。

而作为智能手机的核心部件,处理器的出货量与智能手机相伴相生,出现下滑也是在所难免。

而从具体的处理器品牌来看,高通、苹果、联发科、三星和海思分别位列2017年全球领先智能手机处理器公司前五。

五大厂商境遇各不相同

虽然五大公司并没有变化,但是从各自公司的情况来看,境遇却是千差万别。

由于2017年联发科的智能手机处理器缺乏发展重心,高通的市场份额得到了进一步提升,达到了42%。

位列第二苹果市场份额达到了22%。

联发科位居第三,在智能手机处理器市场拥有15%的市场份额。

Strategy Analytics的报告指出,在过去的一年中,苹果、海思、高通和三星的处理器都出现了增长。但联发科和展锐的处理器出货量出现了一定程度的下滑。

联发科更是由于在中国市场的份额和出货量出现了大幅度下滑,五年来首次营收下滑。而高通则借此获得了原本属于联发科的Oppo、Vivo、小米等中国厂商的订单。

具体原因在于,在过去的五年当中,3G 智能手机处理器的需求和发展都非常缓慢,市场逐渐转变成4G智能手机的主流市场。当年以3G为主打的联发科和展锐受此影响,市场份额自然逐渐下滑。

Strategy Analytics的分析师Sravan Kundojjala表示:“2018年,对于联发科和展锐来说将会是至关重要的一年。”

AI和64位大势所趋

此外,Strategy Analytics的报告中还指出,目前已经有超过2.5亿部智能手机开始采用AI引擎来实现机器学习,支持诸如3D人脸识别、图像识别等相关新应用。

未来,相信随着人工智能应用在智能手机当中逐渐普及,搭载相关技术的智能手机处理器将会成为市场的主流选择。

另一方面,Strategy Analytics还指出,经过多年的发展,64位智能手机处理器在最近三年出现了大幅度增长。2017年64位智能手机处理器市场份额达到了88%,而这一数字在2016年仅为38%。

此外,Strategy Analytics还表示,在苹果、海思、高通和三星的推动下,10nm智能手机处理器占到总处理器出货量的14%,而8核的处理器占到了总出货量的40%。

目前,全球手机市场呈现疲软状态,这与手机差异化缩小,缺乏创新有关,比如苹果十年磨一剑的iPhone X在市场就没讨得什么好处。未来随着人工智能和64位的大行其道,智能手机处理器又会迎来怎样的变化呢?(校对/范蓉)

2.NVIDIA黄仁勋:GPU加速运算成为延展摩尔定律主要模式

在此次GTC Taiwan中,NVIDIA执行长黄仁勋期未来10年内,每年对于运算需求的规模将成长100倍,同时预期在摩尔定律逐渐衰减之下,全球前50大超级电脑的GPU运算量将在未来5年内成长15倍率,同时以GPU加速运算的方式将成为延展摩尔定律的主要模式。


黄仁勋在GTC Taiwan再次强调过去NVIDIA创造CUDA运算模式所带动加速效益,同时说明未来借由GPU加速运算的模式将会持续扩大,预期在2028年全球运算需求将等同1000万组Volta架构GPU所推动效能,若以传统通过多组CPU堆叠构成超级电脑等级运算能力,将会占据大规模空间及高额电力花费,若以GPU替换的话,则可节省更多空间与电力损耗,同时带来更高加速效果。

就目前超级电脑底经成为现代科学发展重要工具,分别在分子建构、量子化学、量子力学、天气预报、气象研究、能源探索、物理模拟、数据分析与人工智能技术发展扮演重要角色,并且提供百万亿次或百亿等级运算效能。而就OpenAI统计显示,未来5年内的人工智能运算模型将成长30万倍,相比摩尔定律预期成长速度快3万倍,借由GPU加速能力将可让数据、演算程式复杂度大幅提升,借此解决过往人力无法解决运算需求。


去年宣布推出整合Tensor Core设计,并且整合32GB HBM2内存的Volta架构GPU,借此对应125 Tensor TFLOPS运算效能,分别对应7.5 FP64 TFLOPS或15 FP32 TFLOPS预算效能,相比过往采用GPU加速运算模式可提升10倍效率,同时进一步让占用空间与电力损耗大幅降低。

而为了突破硬体架构限制,NVIDIA在今年的GTC 2018更进一步宣布推出NVSwitch,让16组Volta GPU能共用高达512GB HBM2内存 (32GB x 16),总计可对应81920组CUDA核心、2000 Tensor Core TFLOPS运算效能,构成全球最高效能的GPU,并且不受传统CPU架构限制GPU存取内存容量影响。借由NVSwitch的设计,NVIDIA更宣布推出全球最大 (并且可游玩游戏)的DGX-2 GPU,对应借由高达2PFLOPS运算效能,并且特殊多孔纤维设计让运作功率高达10000W的机盒维持低温运作,相比半年前正式推出的DGX-1运算效能提升10倍。

相比过往必须借由300组双核心CPU构成、必须消耗180000W功率能耗运作的服务器,通过单组DGX-2 GPU即可对应相同运算效能,但整替价格仅需1/8与1/18功率能耗,同时相比过往Alex 练Alex Krizhevsky通过两张NVIDIA GTX 580 GPU,花费6天时间完成训练AlexNet,借由DGX-2 GPU仅需18分钟即可完成。同时DGX-2 GPU也分别打破每秒分析1075个影像,成为最快单晶片运算速度,以及每秒可在每个节点处理15500个影像,并且可在14分钟内完成扩充,推论延迟时间仅在1.1毫秒,每秒更可推论演算6250个影像。

通过DGX-2的运算能力与NVSwitch串接技术,NVIDIA也宣布推出以DGX-2建构的服务器平台设计HGX-2,并且与广达、云达、富士康、英业达、纬创、纬颖、华硕、技嘉、华擎、泰安、宏碁等台湾在地厂商合作,同时强调全球约有90%服务器源自台湾,而NVIDIA也与更多台湾在地厂商持续合作。

借由GPU运算能力,配合与Adobe等软体厂商合作的影像处理技术,将可实现即时修改影像中不必要物件,或是重建影像中缺乏内容,甚至能进一步呈现“美颜”效果。同时通过与Google提出的kubernetes容器集群管理系统合作,将可让更多人工智能系统能因应不同运算需求动态调整运算效能,借此让GPU架速运算效能有更弹性配置效益,将与阿里巴巴、百度、eBay、HIKVISION、IBM、小米等厂商合作。


在与台湾合作部分,NVIDIA表示目前富士康将借由人工智能技术检测制作生产效率,中国医药大学附设医院通过人工智能技术协助医师分析预测癌症肿瘤转移情况,台湾大学则通过人工智能区分鼻咽癌危及器官,而台湾人工智能实验室也通过人工智能技术协助台南市政府监测桥梁结构预防台风损害,桃园市政府则计划在2020年前让30%固定行驶路线的公车能配置Level 3自动驾驶功能。

如同先前在GTC 2018期间以“PLASTER”作为主题演讲结尾,黄仁勋也强调分别借由可编程 (Programmability)、低延迟 (Latency)、高精准度 (Accuracy)、规模化 (Size)、数据吞吐量 (Throughput)、能耗效率 (Energy Efficiency),进而推动学习训练效率 (Rate of Learning),让人工智能能以更快速度成长。经济日报

3.高通首款XR平台发布,可与骁龙845 VR/AR体验媲美?

集微网消息(文/小北)高通于昨日的增强现实世界博览会(AWE)期间发布了首款扩展现实(XR)专用平台——骁龙XR1平台。
 

XR是高通于2017年提出的全新概念,该技术涵盖AR(增强现实)、VR(虚拟现实)与MR(混合现实)。高通曾预测,在2021年XR将创造一个1080亿美元的市场。

 

据悉,高通对XR技术制定的初步战略是:
芯片级:高通最顶级移动芯片将支持应用在XR打造的移动平台;
软件级:提供专门的VR SDK供开发者使用;
HMD加速器计划:HMD参考设计帮助OEM厂商以最快速度实现产品的商用;
生态:与合作伙伴进行合作,构建生态。

在XR1推出之前,高通已经与合作伙伴推出20多款XR设备,涵盖一体机和XR兼容智能手机。曾经,XR被作为一种技术集成到高通骁龙高端处理器芯片中,比如XR技术作为骁龙845的一大卖点而进行宣传,即能够在室内空间定位、六自由度和即时定位与地图构建系统,可产生更真实的沉浸式体验。

据悉,在XR概念提出来前,高通骁龙处理器已开始融合这项技术,骁龙820为第一代XR硬件平台,骁龙835为第二代XR硬件平台,骁龙845为第三代XR硬件平台。

XR1作为专用扩展现实平台,集成了Qualcomm Technologies异构计算架构,包括基于ARM的多核CPU(Kryo)、向量处理器、图形处理器(Adreno)和高通人工智能引擎AI Engine。 

 


XR1还包括XR软件服务层、机器学习、骁龙XR软件开发包(SDK),以及Qualcomm Technologies的连接与安全技术。

据悉,骁龙XR1有三个档次,分别针对入门的cardboard、3DoF(3自由度)的主流级别产品以及6DoF(6自由度)的旗舰产品。

根据知情人士表示,XR1平台简化了以往骁龙处理器中大量为手机优化而做的设计,减少了基带集成,由此使得成本显著下降,同时在AI与安全方面做了重点设计。以往,Vive Focus等一体式设备采用的是骁龙移动处理器芯片,如今可以采用XR专用平台,这样可以在成本上获得更大优势。

可以猜测,未来高通XR技术在芯片级发展路径将分为搭载XR技术高端骁龙处理器与XR专用芯片两种。

高通预计,首批搭载XR1芯片的VR一体机等将于2019年早期上市,并预测2023年前,VR/AR一体机将达到1.86亿台的规模。高通透露,Meta、Vive、Vuzix和Pico等厂商已基于首款专用的XR1平台进行开发。据外媒报道,该芯片将率先应用在Vuzix新款Blade智能眼镜以及HTC的AR/VR头显中。

XR1在视觉、音频以及交互方面的特性:最高支持QHD+分辨率的显示屏、6个头部自由度+6个手部自由度、4K 60FPS视频回放、高通Aqstic/aptxHD音频技术、AR捕捉延迟在20ms以内等。(校对/茅茅)

4.联发科MediaTek Sensio升级,MT6381将迎来应用落地?

集微网消息(文/小北)去年12月,联发科发布了智能健康方案MediaTek Sensio,搭载这套方案的手机或手机配件可以在60秒左右测量出包括心电图在内的六项生理数据,而MediaTek Sensio的核心是一颗智能健康芯片MT6381。

一颗MT6381就可以测量用户的心率、心率变异、血压趋势、血氧饱和度(SpO2)、心电图(ECG)、光体积脉搏波图(PPG)6项生理数据,因此被称作六合一智能健康芯片,可集成到智能手机、可穿戴式设备等终端中。据悉,该芯片是迄今为止最完整的智能健康方案。

按照联发科的生产计划,今年初MediaTek Sensio智能健康方案便可以开始供货。然而,时至今日,也未有手机厂商明确宣布搭载该款芯片。

MT6381当真没有市场前景?

近日有消息称,联发科正在与谷歌以及印度手机厂商携手合作,将把智能健康芯片导入到Android Go平台的智能手机当中,有望今年开始量产出货。

联发科表示在MediaTek Sensio智能健康解决方案之中加入了血压趋势预测的算法。透过联发科推进MediaTek Sensio发展的动作来看,其必然对MediaTek Sensio及MT6381的市场前景充满了信心。

据悉,台湾大学、台大医院与联发科技的研究团队表示,将继续深化合作,以优化与验证算法为目的,同步展开临床研究。随着MediaTek Sensio方案的推进与升级,未来,厂商有望借助MediaTek Sensio开发用药提醒、血压警示、紧急呼救等应用的智能设备及配件。

联发科、谷歌关系紧密,或成MediaTek Sensio落地关键

自2017年底,联发科与谷歌的合作愈发紧密。2017年11月,联发科宣布正式进入谷歌的GMS Express项目,成为第一方的SoC成员,软件更新审批时间缩减到4周;2017年12月,联发科宣布成为谷歌最新推出 Android Oreo (Go 版本)的合作伙伴,将与谷歌紧密合作,稳固入门级智能手机市场版图。

Android Go可以看作是Android 8.1的精简版,主要由轻量级安卓系统、Google Go系列自带应用以及专为低端设备设计的 Google Play Store构成,专为512MB或1GB内存的手机设计。

透过一个细节可以看出Android Go瞄准了印度市场:Gboard在2017年4月做了一次更新,增加了对6种印度本土语言的支持,使得Gboard对印度本土语言的支持类型增长到了22种。尽管谷歌从未提及Android Go是针对印度市场的,但根据智能机全球格局可以推测,谷歌Android Go的一大目标市场就是印度市场。

据悉,联发科面向4G手机的MT6739、MT6737,面向3G手机的MT6580等多款芯片已全面支持安卓Android Go。

鉴于联发科与谷歌在Android Go智能机方面紧密的合作关系,联发科MediaTek Sensio“顺势”导入到Android Go智能机中也合情合理。而且对于印度等新兴市场而言,智能健康将成为手机的一大卖点,而MT6381的导入也不会带来太大的成本上涨,毕竟MT6381相较于全面屏、双摄的成本是很低的。

因此,谷歌或将成为MediaTek Sensio落地关键。

5.NVIDIA发布HGX-2 AI运算性能更上层楼

为加速人工智能(AI)发展,并因应未来日益繁重的运算需求,NVIDIA于“GTC Taiwan 2018”大会上宣布推出专为AI与高效能运算打造的单一整合运算平台--NVIDIA HGX-2。该产品透过2 Petaflops计算能力提升AI运算效能,并已获多家电脑/服务器制造商,如华硕、宏碁、云达、联想等采用。

NVIDIA 创办人暨执行长黄仁勋于会主题演讲时表示,随着运算需求急速攀升,扩充CPU的作法已经不合时宜,且打造高效能运算(HPC)和AI的服务器复杂度不停攀升,几乎已到了系统设计的极限;而NVIDIA HGX-2结合搭载Tensor Core 的GPU,透过高效能运算与AI的整合,可提供业界一个强大的多用途运算平台以克服上述挑战。

据悉,HGX-2 云端服务器平台具备多重精准运算效能,提供强大的弹性支持未来益加繁重的运算需求;并针对科学与模拟运算分别采用FP64与FP32的高精准度运算,同时也能运用FP16与Int8格式进行AI训练与推论,以因应越来越多的高效能运算结合AI所衍生的应用需求。

此外,该产品还能透过ResNet-50达成每秒15,500张的AI训练速度,效能足以取代高达300颗CPU所组成的服务器;其还具备NVIDIA NVSwitchTM网状互连架构,能顺畅串连16颗内建Tensor Core的NVIDIA Tesla V100 GPU 运作起来等于是一颗巨大GPU,而以HGX-2所打造的系统正是日前所推出的NVIDIA DGX-2。

黄仁勋指出,HGX-2隶属NVIDIA GPU加速服务器平台系列产品之一,该系列产品串连整个数据中心服务器体系,适合每个大型市场,能因应不同AI、高效能运算及加速运算作业建议最适 GPU 与 CPU 配置组合。像是HGX-T针对超大规模训练及HPC;HGX-1针对大规模推论及智能影像分析功能(IVA);以及SCX-E针对数据中心、HPC、IVA、虚拟桌面基础架构(VDI)等。新电子

6.瞄准自动驾驶!英特尔与清华大学、中科院启动为期5年合作

集微网 5月30日报道

今天下午,英特尔在北京宣布,将成立英特尔智能网联汽车大学合作研究中心,与中国顶尖的大学和科研机构开展面向自动驾驶展开深入研究。首批签署合作协议的院校为清华大学、中国科学院自动化研究所,该合作为期5年。


据了解,英特尔智能网联汽车大学合作研究中心将瞄准五大课题方向,涵盖了自动驾驶汽车、车联网技术以及支撑自动驾驶的大规模智能基础设施;针对中国以及亚太地区独特的文化、地理特点,应对自动驾驶汽车在广泛应用和部署时需面临的独特挑战等方面。

具体研究方向包括:1)自动驾驶汽车安全性;2)自动驾驶的人机接口,以及新配套法律法规带来的挑战;3)开放数据集以及基准测试;4)基于蜂窝无线网络的车联网(C-V2X)、移动边缘计算、智慧交通以及智慧基础设施研究;5)基于新型硬件器件和架构(例如英特尔3D Xpoint)的先进算法研究。
此次与清华大学、中国科学院自动化研究所之间的合各方将要是围绕创新性的车联网应用以及平行驾驶等领域展开联合研究。

复杂系统管理与控制国家重点实验室主任、中国自动化学会副理事长兼秘书长王飞跃表示:“通过此次合作,相信我们在平行驾驶、平行智能系统等领域的研究成果,结合英特尔在自动驾驶领域的技术积累,将有助于自动驾驶在中国的落地。”

清华大学汽车工程系教授李克强表示:“目前,我们围绕智能网联汽车领域完成了一系列基础性理论与应用技术研究。此次与英特尔的合作,将有利于我们着眼于全球视野,联动全球资源,共同推动中国自动驾驶、智能网联汽车行业的创新型应用研究。”

过去几年,英特尔不断加大在自动驾驶领域的布局。去年,他们斥巨资以153亿美元收购了Mobileye。资料显示,Mobileye是一家总部位于以色列的知名科技企业,这家创立18年的科技公司于2014年在纽交所上市,当时的市值就已经达到了50亿美元。目前市面上大约有来自25个厂商的2700万辆汽车拥有驾驶辅助功能,而Mobileye产品占据了其中70%的份额。

就在本月,Mobileye还宣布,已经与欧洲汽车制造商就800万辆汽车的自动驾驶技术达成合作协议。英特尔预计,将在2021年开始为汽车制造商提供基于Mobileye第五代系统芯片EyeQ5(旨在为全面自动驾驶汽车提供以视觉为核心的计算机传感器融合)的自动驾驶系统。(校对/蓝天)

在此次GTC Taiwan中,NVIDIA执行长黄仁勋期未来10年内,每年对于运算需求的规模将成长100倍,同时预期在摩尔定律逐渐衰减之下,全球前50大超级电脑的GPU运算量将在未来5年内成长15倍率,同时以GPU加速运算的方式将成为延展摩尔定律的主要模式。


黄仁勋在GTC Taiwan再次强调过去NVIDIA创造CUDA运算模式所带动加速效益,同时说明未来借由GPU加速运算的模式将会持续扩大,预期在2028年全球运算需求将等同1000万组Volta架构GPU所推动效能,若以传统通过多组CPU堆叠构成超级电脑等级运算能力,将会占据大规模空间及高额电力花费,若以GPU替换的话,则可节省更多空间与电力损耗,同时带来更高加速效果。

就目前超级电脑底经成为现代科学发展重要工具,分别在分子建构、量子化学、量子力学、天气预报、气象研究、能源探索、物理模拟、数据分析与人工智能技术发展扮演重要角色,并且提供百万亿次或百亿等级运算效能。而就OpenAI统计显示,未来5年内的人工智能运算模型将成长30万倍,相比摩尔定律预期成长速度快3万倍,借由GPU加速能力将可让数据、演算程式复杂度大幅提升,借此解决过往人力无法解决运算需求。


去年宣布推出整合Tensor Core设计,并且整合32GB HBM2内存的Volta架构GPU,借此对应125 Tensor TFLOPS运算效能,分别对应7.5 FP64 TFLOPS或15 FP32 TFLOPS预算效能,相比过往采用GPU加速运算模式可提升10倍效率,同时进一步让占用空间与电力损耗大幅降低。

而为了突破硬体架构限制,NVIDIA在今年的GTC 2018更进一步宣布推出NVSwitch,让16组Volta GPU能共用高达512GB HBM2内存 (32GB x 16),总计可对应81920组CUDA核心、2000 Tensor Core TFLOPS运算效能,构成全球最高效能的GPU,并且不受传统CPU架构限制GPU存取内存容量影响。借由NVSwitch的设计,NVIDIA更宣布推出全球最大 (并且可游玩游戏)的DGX-2 GPU,对应借由高达2PFLOPS运算效能,并且特殊多孔纤维设计让运作功率高达10000W的机盒维持低温运作,相比半年前正式推出的DGX-1运算效能提升10倍。

相比过往必须借由300组双核心CPU构成、必须消耗180000W功率能耗运作的服务器,通过单组DGX-2 GPU即可对应相同运算效能,但整替价格仅需1/8与1/18功率能耗,同时相比过往Alex 练Alex Krizhevsky通过两张NVIDIA GTX 580 GPU,花费6天时间完成训练AlexNet,借由DGX-2 GPU仅需18分钟即可完成。同时DGX-2 GPU也分别打破每秒分析1075个影像,成为最快单晶片运算速度,以及每秒可在每个节点处理15500个影像,并且可在14分钟内完成扩充,推论延迟时间仅在1.1毫秒,每秒更可推论演算6250个影像。

通过DGX-2的运算能力与NVSwitch串接技术,NVIDIA也宣布推出以DGX-2建构的服务器平台设计HGX-2,并且与广达、云达、富士康、英业达、纬创、纬颖、华硕、技嘉、华擎、泰安、宏碁等台湾在地厂商合作,同时强调全球约有90%服务器源自台湾,而NVIDIA也与更多台湾在地厂商持续合作。

借由GPU运算能力,配合与Adobe等软体厂商合作的影像处理技术,将可实现即时修改影像中不必要物件,或是重建影像中缺乏内容,甚至能进一步呈现“美颜”效果。同时通过与Google提出的kubernetes容器集群管理系统合作,将可让更多人工智能系统能因应不同运算需求动态调整运算效能,借此让GPU架速运算效能有更弹性配置效益,将与阿里巴巴、百度、eBay、HIKVISION、IBM、小米等厂商合作。


在与台湾合作部分,NVIDIA表示目前富士康将借由人工智能技术检测制作生产效率,中国医药大学附设医院通过人工智能技术协助医师分析预测癌症肿瘤转移情况,台湾大学则通过人工智能区分鼻咽癌危及器官,而台湾人工智能实验室也通过人工智能技术协助台南市政府监测桥梁结构预防台风损害,桃园市政府则计划在2020年前让30%固定行驶路线的公车能配置Level 3自动驾驶功能。

如同先前在GTC 2018期间以“PLASTER”作为主题演讲结尾,黄仁勋也强调分别借由可编程 (Programmability)、低延迟 (Latency)、高精准度 (Accuracy)、规模化 (Size)、数据吞吐量 (Throughput)、能耗效率 (Energy Efficiency),进而推动学习训练效率 (Rate of Learning),让人工智能能以更快速度成长。经济日报
0
相关文章
相关留言
写留言...
微信公众号
长按二维码关注"米格实验室"微信公众号