高通在上周于旧金山的 AI OPEN DAY 活动中推出针对云端运算加速应用而生的 Qualcomm Cloud AI 100 处理器,这次在深圳中也同时进行发布,与终端装置使用的 Snapdragon 665、730、730G 系列不同,Qualcomm Cloud AI 100 是专门处理海量终端资料进行 AI 处理的辅助处理器,搭配将来的 5G 网络达到最大的 AI 巨量资料处理目的。
高通技术产品管理副总裁 Ziad Asghar 表示“无线边缘”(这名词泛指各种无线终端设施,包括手机、汽车、智慧穿戴、物联网设施…等等)的巨量资料可实现 5G+AI 的全部潜力:
高通的主要专长就是在工艺制程(S820为14nm,到S855时已经进展到7nm)、低功耗表现(ARM架构优势)、规模化(一年七亿颗处理器销售)与各种信号处理(拍照、视频、音频、XR、手势…)的技术优势:
而云端 AI 资料处理的架构由传统的处理器到 FPGA架构处理器搭配GPU 的运算效能已有10倍的提升,而像 AI 100 这类的 AI 加速器能够有多超过10倍的效能提升:
预估到2025年,全球 AI数据中心的规模将达 170亿美金之谱:
而高通要做的就是将 AI 运算的海量需求由终端的手机透过 5G 大带宽连接到云端,经过高速运算后再将结果回传到末端设备中:
举例来说,脸书内建的翻译功能(大家只要看到其他语言的FB贴文下方就有一个翻译提示),每天的翻译量高达 59.5 亿次。更别说其他类似的大型公司,如微软、Google等公司,每天所花费在XR(VR、AR、MR)、自然语言处理(语音辨识、翻译、电脑视觉)相关巨量 AI 运算的资源相当可观,所以低功耗高算力的 AI 辅助处理器就相当重要:
这样的巨量需求相当的可观与耗费主机运算资源与电力消耗,每年也成倍数成长,但只要外挂 Qualcomm Cloud AI 100 这类的 AI 加速处理器,就能将大量的 AI 运算转给 AI 100 处理,可大幅度的降低资讯中心的主机运算 Loading 与功耗:
看这段影片大家比较容易了解 Qualcomm Cloud AI 100 究竟在处理哪些海量 AI 资讯:
Qualcomm Cloud AI 100 加速处理器相容ONNX、Glow、XLA,以及包含TensorFlow、PyTorch、Keras、MXNet、PaddlePaddle等市面常见框架,降低服务开发难度与时间:
以 AI 算力来说的话 Qualcomm Cloud AI 100 的峰值运算效能是目前高通最强处理器 Snapdragon 855 的 50 倍以上,而且具备高扩展性可以多卡堆叠同步运算,并可外挂到任何形式的资料中心中进行辅助运算:
Qualcomm Cloud AI 100 采用7奈米制程设计,与目前市面上其他的商用方案(如 NVIDIA、Google)相比,每瓦特功耗的所发挥的性能提升十倍,AI 运算性能峰值超过 350 TOPs(每秒兆次运算),相当惊人!Qualcomm Cloud AI 100 处理器预计在 2019年下半提供样品,2020年上市届时应该会有许多商用的资料中心使用: