APP下载

类比讯号用于AI预测更快也更省电,神盾研发类比运算AI芯片瞄准超高速感测市场

消息来源:baojiabao.com 作者: 发布时间:2024-05-13

报价宝综合消息类比讯号用于AI预测更快也更省电,神盾研发类比运算AI芯片瞄准超高速感测市场

全世界指纹辨识芯片出货量第二的神盾,投入类比AI芯片的研发,并且将研究成果初步运用在自家指纹辨识芯片中。

图片来源: 

图/取自神盾官网

随着AI走向边缘运算,越来越多人投入AI推论芯片的研发,目的要即时分析终端装置接收到的资讯,来减少资料上云可能造成的延迟。然而,终端装置搜集到类比讯号后,需要透过类比数位转换器(ADC,Analog-to-Digital Converter),以0与1的形式存成数位资讯,再来执行AI运算,换句话说,若要做到即时的资料分析,更直观的做法,是在接收到类比资讯的同时就进行运算,不但能省下类比转数位的时间,也能省下芯片内建ADC元件的成本。

然而,这么做可能吗?在台湾,有一家公司投入类比AI芯片的研发,已经将研究成果初步运用在自家指纹辨识芯片中,正是全世界指纹辨识芯片出货量第二的神盾。神盾首席运营官林功艺表示,目前全球在研发类比AI芯片的厂商非常少,IBM是其中一家,在去年4月推出了一款类比AI芯片,运用相变内存(Phase-change memory,PCM)来打造内存内运算架构,来执行类比资料的AI运算;此外,也有一家美国研发AI芯片的公司Mythic,从去年开始投入类比AI运算芯片的研究,试图将这款芯片应用在云端运算中,“神盾采用的技术与Mythic相似,但聚焦在边缘运算。”

在近期一场活动上,林功艺也揭露类比AI运算的优势与应用。现在的电脑架构,是70年前定下的范纽曼型架构(Von Neumann architecture),把内存跟运算(CPU)分开,中间用总线(Bus)传输资料。然而,将CPU与内存分开的架构,对于运算量动辄几亿次的AI运算中,光是在内存与CPU之间搬运资料的过程,就会产生严重的功耗;且因资料传输带宽(Memory Bandwidth)的局限,资料搬运速度往往比不上CPU执行AI平行运算的速度,导致CPU部分乘加器(MAC)闲置,运算资源无法利被完全利用。

林功艺表示,如果用类比资料来做AI运算,是直接在终端分析即时且连续的类比资料,由于不需要转存成数位资讯到内存,也就能省去内存与CPU之间资料传输的庞大功耗,因此,在类比AI芯片的架构上,需要的晶体管(transistors)数量会少很多。举例来说,要执行8位元的平行化运算,若用数位资料做乘法运算,需要约3000个晶体管,做加法运算,需要300个晶体管;然而,用类比资料来做乘加运算,总共只需30个晶体管,功耗大约为原先执行数位运算的1%。

“类比跟数位在图形理论、类神经网络架构、数学基础一模一样,唯一不同的是我用类比的方式做乘加器,只要1%的晶体管。”换句话说,在能得到相同AI辨识结果的情况下,类比AI运算消耗的功耗更少,对于现有硬件架构来说是一种很大的突破。

林功艺引述IBM研究院AI硬件中心一份研究,来说明未来几年执行浮点运算硬件效能(Giga FLOPS/Watt)的局限,从图中可以看见,若现有深度运算的技术并无革命性的发展,数位AI运算效能将在2021年达到巅峰,而类比AI运算还能继续突破运算限制,可能成为未来的发展趋势。

若现有深度运算的技术并无革命性的发展,数位AI运算效能将在2021年达到巅峰。

应用类型一:结合摄录影机进行影像辨识,来降低资料储存、传输的内存与带宽

由于储存到云端的资料都已经数字化,因此,类比AI芯片更适用于边缘运算。林功艺也表示,神盾主要是做手机上各式各样的感应器(Sensor),“我们的好处在于,是站在sensor前端,本质上非常类比的IC设计公司。”也因此,将类比AI芯片与各式终端感应器结合,就是神盾要开发的市场。

林功艺也以摄录影机结合影像辨识功能,来说明类比运算AI芯片的应用方式。当镜头接收到的类比影像后,不同于一般边缘运算,是把类比转数位之后再进行影像辨识,运算过程会产生庞大功耗;类比AI运算是在感应器不断接收到类比资料时,就直接影像辨识并撷取其特征值,压缩存成数位资讯再后送云端,最后,以生成对抗网络(GAN)在云端重建影像。

比如说,将类比AI芯片与监控摄影机结合,只有在镜头侦测到有机车、行人、猫狗经过,或任何风吹草动使画面转变时,才会开始撷取特征值、后送云端重建资料,换句话说,其他没有动静的画面就无储存纪录。如此一来,就能大幅降低资料储存、传输的成本。尤其中国的监控摄影机,直到2019年设置将近2亿支,在晚上8小时且无人车行经的场域,还是必须不断的摄录影并储存,更别提往后要传输到云端或搜寻资料,都会花费很多成本去执行。

也就是说,用类比运算进行AI分析,不仅可以达到侦测异常画面来报警的目的,更能减少大量数位资料储存、传输上云所耗费的带宽与内存空间。根据史丹佛大学Meltem & Ahmad的研究,若一张未压缩的人脸图像资料大小有26,966 bytes,尽管压缩后只剩478 bytes,仍然可以用生成对抗网络还原成几乎相同的图像。林功艺以此说明,以压缩后的影像与特征值,来重建原始影像的可行性。

史丹佛大学学者Meltem & Ahmad用生成对抗网络,可将478位元的资料还原成足够清楚的人脸影像。

对此,林功艺也表示,无论用类比或数位资料进行AI分析,撷取特征值并压缩影像后,都会有些微失真,但以GAN重建过后,并不会有哪张影像比较精准的问题,因为使用的算法一样,而类比运算的优势,是在于更低的运算功耗与芯片成本。

此外,除了结合监控录影机,类比AI结合影像辨识的应用还很多。例如,侦测一间教室的人数来决定冷气温度,或是人造卫星拍摄的卫星影像,尤其人造卫星数量从1960年代至今已经将近5,000个,一天24小时中,还必需不间断拍摄高分辨率的影像并回传到地面,每日储存传输的资料量非常庞大,这都是类比AI技术有潜力的市场。

应用类型二:结合自驾车进行影像辨识,来降低有线传输造成的判读延迟

另一个可行的应用,则是自驾车针对路况影像来即时辨识。相较于摄录影机影像辨识的应用,着重在降低资料储存、传输所占用的内存与带宽,自驾车的应用,则是要强调能更快速的对路况做出反应,来减少几百毫秒的延迟。

现今的先进驾驶辅助系统(Advanced Driver Assistance Systems,ADAS),在进行影像辨识的过程,是先透过感应器接收类比资料,并透过ADC转换为数字信号,接着由SerDes(序列器)将多路低速并行信号转换成高速串列信号,通过LVDS高速传输后,再透过SerDes(解除序列器)转换回多路并行讯号,经过数字信号处理(Digital signal processing)来优化讯号,最后进行影像分析。

然而,对比ADAS以有线传输的方式来进行数位AI影像分析,若以边缘运算来进行影像辨识,以上资料传输的过程,都可以用一个内建于感应器的影像辨识芯片来取代,来即时的分析影像资讯并将结果回传。在边缘运算中,同样的,数位AI芯片也能做,但用类比AI芯片,功耗会更低、也更便宜。

第一列,是现今ADAS架构中,将数位资讯回传至后端运算所需经过的转换;第二列,则是直接使用内建于感应器中的类比AI芯片执行边缘运算。

为什么边缘运算会更快?除了省去一长串资料传输过程所造成的延迟,也因为现今车子串流影像的传输限制为30 fps(每秒30影格),在录影机侦测路况时,至少需要一帧的影像画面,才能辨识出物体样态,而物体动作的侦测又更久,尤其是横向移动的轨迹侦测,究竟该物件是在靠近车子还是远离车子?最少需要十影格的时间,才足够自驾车对路况做出判断。这时,因有线传输的限制是每秒30影格,10影格换算之后也就是0.333秒。换句话说,车子需要0.333秒的反应时间,才能决定要减速还是闪避。

以去年3月Uber自驾车撞死横越马路的行人车祸为例。当时,一位妇人牵脚踏车横向穿越马路,而Uber以55km/hr的速度前进,0.333秒换算之后约为5米的距离,也就是说,车子辨识到物体后还会继续前行5米才做出反应,这还不包括中间类比转数位、以及传输的时间,等到车子反应过来,也许已经闪避不及。

若以类比AI芯片结合边缘运算,使用60、120甚至240fps的摄影机来捕捉画面,以现在手机的摄影功能就做得到,同样以10影格来辨识物体移动路径,能更即时的对路况做出反应,在分秒必争的驾驶场景中,无疑更有优势。

应用类型三:结合智慧音箱进行语音辨识,来降低24小时辨识的耗电量

除了影像辨识的应用,林功艺也举出一个语音辨识的案例,比如现在很流行的语音助理,当用户喊出“Alexa”、“OK, Google”、“Hey, Siri”等呼叫的起手式,就能启动语音助理的功能。“但大部分的人都不知道,他整天24小时都再听你讲话,听到Alexa才开始,平常不听怎么醒过来?”

若以数位资讯来语音辨识,辨识前经过的流程,从一句话被麦克风接收,透过ADC转成数位资讯,接着用DSP优化资讯,最后进行语音辨识,由于每个元件要发挥作用时都需要耗电,换句话说,语音助理必须维持有电的状况,才能在辨识Alexa的时候即时启动。这时,用类比运算来做语音辨识,只要消耗一点点的电能,一样能唤醒语音助理,“他不用有ADC、DSP,类比AI功耗小,耗电量就变很少。”

林功艺表示,神盾的强项是将AI芯片与感测器结合,如温度计、麦克风、摄影机等,尽管现在除了自家指纹辨识芯片之外,尚未与其他硬件厂商合作推出应用,但近来越来越多车厂有意与神盾合作,未来可能从自驾车或车联网的应用开始发展。此外,神盾也参与了工研院AI on chip的计划,自己开发AI类比运算的技术,并由工研院协助研发编译器(compiler),提供客户编译器来训练AI模型,加速应用的落地。

2019-08-13 13:46:00

相关文章