《宇視》編者按:對于“AI芯片”、“人工(gong)智能(neng)芯片”,最(zui)早由智能(neng)手(shou)機在2018年炒熱。學(xue)界對此并不認同(tong),中國科學(xue)院(yuan)自動化(hua)研究所(suo)專家王飛躍稱沒(mei)有(you)這(zhe)樣(yang)的(de)(de)說法:“我不認為(wei)現在有(you)所(suo)謂(wei)的(de)(de)人工(gong)智能(neng)芯片,當(dang)然(ran)這(zhe)種宣傳可(ke)以進行。”德國馬格德堡大學(xue)教授Andreas Nuernberger也(ye)同(tong)意這(zhe)樣(yang)的(de)(de)觀點(dian),不知道背后誰(shui)在推(tui)動,從(cong)而成為(wei)一個(ge)熱詞。盡管如此,本文不失為(wei)一篇科普佳作,我們(men)有(you)幸在經歷一個(ge)營銷(xiao)泡(pao)沫、商業激進、學(xue)術冷靜并存的(de)(de)AI時代。
相信(xin)你一定還記得(de)擊敗了李世石和柯潔的谷歌“阿爾法狗”(Alpha Go),那你知道驅動Alpha Go的是什么(me)嗎(ma)?
如(ru)果你覺(jue)得Alpha Go和人相似,只不過是把(ba)人腦換(huan)成了芯(xin)片,那么你就大錯特錯了。擊(ji)敗李世石的Alpha Go裝(zhuang)有48個(ge)谷歌的AI芯(xin)片,而(er)這48個(ge)芯(xin)片不是安裝(zhuang)在Alpha Go身體里,而(er)是在云端(duan)。所以,真正驅動Alpha Go的裝(zhuang)置(zhi),看上去是如(ru)下圖(tu)這樣(yang)的。
因此李世石和柯(ke)潔不是輸給了“機(ji)器人”,而(er)是輸給了裝有(you)AI芯片的云工作站。
然而(er)近幾年,AI技(ji)術(shu)的(de)(de)(de)應用場景開始向移(yi)動設備轉移(yi),比如(ru)汽車上的(de)(de)(de)自(zi)動駕駛、手機上的(de)(de)(de)智能(neng)識(shi)別等。產(chan)業(ye)的(de)(de)(de)需求促成了技(ji)術(shu)的(de)(de)(de)進步,而(er)AI芯片作為(wei)產(chan)業(ye)的(de)(de)(de)根基,必須達到更(geng)強的(de)(de)(de)性能(neng)、更(geng)高的(de)(de)(de)效(xiao)率(lv)、更(geng)小(xiao)的(de)(de)(de)體積,才能(neng)完成AI技(ji)術(shu)從云端(duan)到終端(duan)的(de)(de)(de)轉移(yi)。
圖 2018年6月,在北京舉辦的IEEE人工智能與控制論國際研討會,IEEE SMC學會、中國自動化學會、中科院自動化研究所等專家在對區塊鏈、人工智能等概念的熱炒降溫
目(mu)前,AI芯(xin)(xin)片(pian)(pian)的(de)(de)研發方向主要分(fen)兩種:一(yi)是(shi)基于傳(chuan)統馮·諾(nuo)依曼架構的(de)(de)FPGA(現(xian)場可編程門(men)陣列)和ASIC(專用(yong)集成電路)芯(xin)(xin)片(pian)(pian),二是(shi)模(mo)仿人腦神經元結構設(she)計的(de)(de)類腦芯(xin)(xin)片(pian)(pian)。其中FPGA和ASIC芯(xin)(xin)片(pian)(pian)不管是(shi)研發還(huan)是(shi)應用(yong),都(dou)已經形成一(yi)定規模(mo);而類腦芯(xin)(xin)片(pian)(pian)雖然還(huan)處(chu)于研發初期(qi),但具備很(hen)大潛力(li),可能在未來(lai)成為(wei)行業內的(de)(de)主流。
這兩條(tiao)發展路線的(de)(de)主要區(qu)別在于,前(qian)者沿(yan)用(yong)馮(feng)·諾(nuo)依(yi)曼架(jia)構,后者采用(yong)類(lei)腦(nao)架(jia)構。你看到的(de)(de)每一(yi)臺電(dian)腦(nao),采用(yong)的(de)(de)都(dou)是馮(feng)·諾(nuo)依(yi)曼架(jia)構。它(ta)的(de)(de)核心思(si)路就(jiu)是處(chu)理器(qi)和存儲器(qi)要分開,所以才有(you)了CPU(中央處(chu)理器(qi))和內(nei)存。而類(lei)腦(nao)架(jia)構,顧(gu)名思(si)義,模(mo)仿人腦(nao)神經元結(jie)構,因(yin)此CPU、內(nei)存和通信部件都(dou)集成在一(yi)起(qi)。
圖 GPU比CPU有更多的邏輯運算單元(ALU)
下(xia)面介紹兩種架構的簡(jian)要發展(zhan)史、技術(shu)特點和代(dai)表性產(chan)品。
從GPU到FPGA和ASIC芯片
2007年(nian)以前,受限于當時(shi)算(suan)法和(he)(he)數(shu)據等因素(su),AI對芯(xin)(xin)片(pian)還沒有(you)特別強烈(lie)的(de)(de)需(xu)求(qiu),通用的(de)(de)CPU芯(xin)(xin)片(pian)即可提供足(zu)夠的(de)(de)計算(suan)能力(li)。比如現在在讀這篇(pian)文章的(de)(de)你,手(shou)機或電(dian)腦里就有(you)CPU芯(xin)(xin)片(pian)。之后由于高清視(shi)頻(pin)和(he)(he)游戲產業的(de)(de)快速發展,GPU(圖形處理器)芯(xin)(xin)片(pian)取得迅速的(de)(de)發展。因為GPU有(you)更(geng)多的(de)(de)邏輯(ji)運算(suan)單元用于處理數(shu)據,屬于高并行結(jie)構,在處理圖形數(shu)據和(he)(he)復雜算(suan)法方面比CPU更(geng)有(you)優勢,又因為AI深度學(xue)習的(de)(de)模型參數(shu)多、數(shu)據規(gui)模大、計算(suan)量(liang)大,此后一段時(shi)間內GPU代(dai)替(ti)了(le)CPU,成為當時(shi)AI芯(xin)(xin)片(pian)的(de)(de)主流。
然(ran)而(er)GPU畢竟只(zhi)是(shi)圖形處理器,不(bu)是(shi)專門(men)用于AI深度學(xue)習的(de)(de)芯(xin)(xin)(xin)片(pian),自然(ran)存在不(bu)足,比如在執(zhi)行AI應用時(shi),其并(bing)行結構的(de)(de)性能(neng)無法充分(fen)發(fa)揮,導致能(neng)耗高。與此(ci)同(tong)時(shi),AI技術的(de)(de)應用日益增(zeng)長,在教育、醫療、無人駕駛(shi)等領域(yu)都能(neng)看到AI的(de)(de)身影。然(ran)而(er)GPU芯(xin)(xin)(xin)片(pian)過高的(de)(de)能(neng)耗無法滿足產業的(de)(de)需求(qiu),因此(ci)取(qu)而(er)代之的(de)(de)是(shi)FPGA芯(xin)(xin)(xin)片(pian),和ASIC芯(xin)(xin)(xin)片(pian)。
那么這兩種芯片的技術特點(dian)分別是(shi)什么呢(ni)(ni)?又有什么代表性的產(chan)品呢(ni)(ni)?
“萬能芯片”FPGA
FPGA(Field-Programmable Gate Array),即“現場可編程門陣列(lie)”,是在PAL、GAL、CPLD等可編程器件(jian)的(de)基礎上(shang)進一步(bu)發展的(de)產物。
圖 Xilinx的Spartan系列FPGA芯片
FPGA可(ke)以被理(li)解(jie)為“萬(wan)能(neng)(neng)(neng)芯(xin)(xin)片(pian)(pian)”。用(yong)(yong)戶通過燒入FPGA配(pei)置文件(jian),來(lai)定義這些(xie)(xie)門(men)(men)電(dian)路以及(ji)存儲器之間的(de)(de)連(lian)線,用(yong)(yong)硬(ying)件(jian)描述語言(HDL)對FPGA的(de)(de)硬(ying)件(jian)電(dian)路進行設計。每完成一次(ci)燒錄,FPGA內(nei)部的(de)(de)硬(ying)件(jian)電(dian)路就有了確定的(de)(de)連(lian)接方式,具有了一定的(de)(de)功(gong)(gong)能(neng)(neng)(neng),輸(shu)入的(de)(de)數據(ju)只需要(yao)依次(ci)經過各個門(men)(men)電(dian)路,就可(ke)以得(de)到(dao)輸(shu)出結果。用(yong)(yong)大白話說,“萬(wan)能(neng)(neng)(neng)芯(xin)(xin)片(pian)(pian)”就是你(ni)需要(yao)它有哪些(xie)(xie)功(gong)(gong)能(neng)(neng)(neng)、它就能(neng)(neng)(neng)有哪些(xie)(xie)功(gong)(gong)能(neng)(neng)(neng)的(de)(de)芯(xin)(xin)片(pian)(pian)。
盡管叫“萬能(neng)芯(xin)片”,FPGA也不是沒(mei)有缺陷。正因為FPGA的(de)結構具有較高(gao)靈(ling)活性(xing),量產中單塊(kuai)芯(xin)片的(de)成本也比(bi)ASIC芯(xin)片高(gao),并且在性(xing)能(neng)上,FPGA芯(xin)片的(de)速度和能(neng)耗相比(bi)ASIC芯(xin)片也做(zuo)出(chu)了(le)妥協。
也(ye)就是說(shuo),“萬能芯片”雖然是個多面(mian)手(shou),但它的性能比不上(shang)ASIC芯片,價格也(ye)比ASIC芯片高(gao)。
但是在芯(xin)(xin)片(pian)需(xu)求還(huan)未成規(gui)模、深度學習算(suan)法需(xu)要不斷迭代(dai)改進的(de)情況下,具備可(ke)重構特性(xing)的(de)FPGA芯(xin)(xin)片(pian)適(shi)應性(xing)更強。因此用FPGA來實(shi)現半定制人工智(zhi)能芯(xin)(xin)片(pian),毫無(wu)疑(yi)問是保險(xian)的(de)選擇(ze)。
目前(qian),FPGA芯片市(shi)場(chang)被美國廠商Xilinx和(he)Altera瓜(gua)分。據國外(wai)媒體Marketwatch的(de)統計,前(qian)者占全(quan)球市(shi)場(chang)份(fen)額(e)50%、后者約(yue)占35%,兩家廠商霸占了85%的(de)市(shi)場(chang)份(fen)額(e),專利6000多(duo)項,毫無(wu)疑問是行業里的(de)兩座(zuo)大山。
Xilinx的FPGA芯(xin)片(pian)從(cong)低端到高(gao)端,分為四個系列,分別是(shi)Spartan、Artix、Kintex、Vertex,芯(xin)片(pian)工藝也從(cong)45到16納(na)米不(bu)等。芯(xin)片(pian)工藝水(shui)平越高(gao),芯(xin)片(pian)越小。其中Spartan和(he)Artix主要針對(dui)民用(yong)市(shi)場,應(ying)用(yong)包括無人駕駛、智(zhi)能家居等;Kintex和(he)Vertex主要針對(dui)軍(jun)用(yong)市(shi)場,應(ying)用(yong)包括國防、航空航天等。
再說說Xilinx的(de)(de)老(lao)對手Altera。Altera的(de)(de)主(zhu)流FPGA芯片(pian)分(fen)為兩大類(lei),一(yi)種(zhong)(zhong)側(ce)重(zhong)低成本應(ying)用,容量中等(deng),性能(neng)(neng)可(ke)以滿足(zu)一(yi)般的(de)(de)應(ying)用需求(qiu),如Cyclone和(he)MAX系(xi)列;還(huan)有一(yi)種(zhong)(zhong)側(ce)重(zhong)于(yu)高(gao)性能(neng)(neng)應(ying)用,容量大,性能(neng)(neng)能(neng)(neng)滿足(zu)各類(lei)高(gao)端應(ying)用,如Startix和(he)Arria系(xi)列。Altera的(de)(de)FPGA芯片(pian)主(zhu)要應(ying)用在消費電(dian)子(zi)、無線通信、軍事航空等(deng)領域。
專用集成電路ASIC
在AI產業應用(yong)大規模興起之前,使(shi)用(yong)FPGA這類適合并行計算(suan)的(de)通用(yong)芯(xin)片來實現加(jia)速,可以避免(mian)研發ASIC這種定(ding)制芯(xin)片的(de)高(gao)投(tou)入和(he)風險。
但就像我們(men)剛才說到(dao)的(de)(de),由于通用芯(xin)片(pian)的(de)(de)設(she)計初衷(zhong)并(bing)非專門針對深度(du)學習,因此(ci)FPGA難免存在性能(neng)、功耗等方面的(de)(de)瓶頸。隨著(zhu)人(ren)工(gong)智(zhi)能(neng)應用規模的(de)(de)擴大,這類問題將(jiang)日益突(tu)出。換句話說,我們(men)對人(ren)工(gong)智(zhi)能(neng)所有(you)的(de)(de)美好設(she)想,都需要芯(xin)片(pian)追上(shang)人(ren)工(gong)智(zhi)能(neng)迅速發(fa)展(zhan)的(de)(de)步伐(fa)。如果芯(xin)片(pian)跟(gen)不(bu)上(shang),就會成為人(ren)工(gong)智(zhi)能(neng)發(fa)展(zhan)的(de)(de)瓶頸。
所(suo)以(yi),隨著近幾年人工(gong)智能(neng)(neng)算法(fa)和(he)應用領(ling)域的快速(su)發展,以(yi)及研發上的成果和(he)工(gong)藝上的逐漸(jian)成熟,ASIC芯(xin)片正在成為人工(gong)智能(neng)(neng)計算芯(xin)片發展的主流(liu)。
ASIC芯片(pian)是(shi)針對特定(ding)需求而定(ding)制的(de)專用(yong)芯片(pian)。雖(sui)然犧牲了通用(yong)性,但ASIC無論(lun)是(shi)在性能、功(gong)耗(hao)(hao)還是(shi)體(ti)積(ji)上,都比FPGA和GPU芯片(pian)有優勢,特別是(shi)在需要芯片(pian)同時具備高性能、低功(gong)耗(hao)(hao)、小體(ti)積(ji)的(de)移動端設備上,比如手機(ji)。
但(dan)是(shi),因(yin)為(wei)通用性低,ASIC芯片的(de)高研發成本也可(ke)能會帶(dai)來高風險。然(ran)而如果(guo)考慮市(shi)場(chang)因(yin)素,ASIC芯片其實是(shi)行業的(de)發展大趨勢(shi)。
為(wei)什(shen)么這么說呢(ni)?因為(wei)從服務器、計算機(ji)到(dao)無(wu)人(ren)駕駛汽車、無(wu)人(ren)機(ji),再到(dao)智(zhi)能家(jia)居的(de)各類家(jia)電,海量的(de)設(she)備需要引入人(ren)工(gong)智(zhi)能計算能力和感知交互(hu)能力。出(chu)于對實(shi)時性(xing)的(de)要求,以及訓練數據隱私等考慮(lv),這些能力不可能完全依賴(lai)云端(duan),必須(xu)要有本地的(de)軟硬件基礎平臺支(zhi)撐。而(er)ASIC芯片高性(xing)能、低功耗、小體積的(de)特點恰好能滿足這些需求。
ASIC芯片市場百家爭鳴
2016年,英(ying)偉達(da)發(fa)布了(le)專門用于加(jia)速AI計(ji)算的Tesla P100芯片,并且(qie)在(zai)(zai)2017年升級為Tesla V100。在(zai)(zai)訓練(lian)超大型神經網絡(luo)模(mo)型時,Tesla V100可為深(shen)(shen)度(du)學習相關的模(mo)型訓練(lian)和推斷應用提供高(gao)達(da)125萬億次每秒的張量計(ji)算(張量計(ji)算是(shi)AI深(shen)(shen)度(du)學習中最常用到的計(ji)算)。然而在(zai)(zai)最高(gao)性能模(mo)式下(xia),Tesla V100的功耗達(da)到300W,雖然性能強勁,但也毫無(wu)疑(yi)問是(shi)顆“核(he)彈”,因為太費電了(le)。
圖 英偉達Tesla V100芯片
同樣在2016年,谷歌發布了加速(su)深度學習的(de)TPU(Tensor Processing Unit)芯(xin)(xin)片(pian),并(bing)(bing)且之后升級為TPU 2.0和TPU 3.0。與(yu)英(ying)偉達(da)的(de)芯(xin)(xin)片(pian)不(bu)同,谷歌的(de)TPU芯(xin)(xin)片(pian)設置在云端,并(bing)(bing)且“只租不(bu)賣”,服務按(an)小時收費(fei)。不(bu)過谷歌TPU的(de)性能也十分強大(da),算力達(da)到180萬億(yi)次(ci)每秒,并(bing)(bing)且功耗只有200w。
圖 谷歌TPU芯片
關于(yu)各自(zi)AI芯片的性(xing)能,谷歌(ge)CEOSundar Pichai和(he)英偉達(da)CEO黃(huang)仁勛之前還在網(wang)上產生(sheng)過爭(zheng)論。別(bie)看(kan)兩位大(da)佬為自(zi)家產品撐腰,爭(zheng)得不可開交,實際(ji)上不少網(wang)友(you)指出,這(zhe)兩款產品沒必要“硬(ying)做比較(jiao)”,因為一(yi)個是在云端,一(yi)個是在終(zhong)端。
除了大公司,初(chu)創(chuang)企(qi)業(ye)(ye)也在(zai)激(ji)烈競爭(zheng)ASIC芯片市場(chang)。那么初(chu)創(chuang)企(qi)業(ye)(ye)在(zai)行業(ye)(ye)中該如何生存呢?對(dui)此(ci),AI芯片初(chu)創(chuang)企(qi)業(ye)(ye)Novumind的(de)中國區(qu)CEO周斌告(gao)訴小探:創(chuang)新是(shi)初(chu)創(chuang)企(qi)業(ye)(ye)的(de)核心競爭(zheng)力(li)。
2017年,NovuMind推(tui)出(chu)了第一(yi)款(kuan)(kuan)自主設計的AI芯(xin)(xin)片(pian)(pian):NovuTensor。這(zhe)款(kuan)(kuan)芯(xin)(xin)片(pian)(pian)使用原生張量處理器(Native Tensor Processor)作(zuo)為內核構(gou)(gou)架,這(zhe)種(zhong)內核架構(gou)(gou)由NovuMind自主研發(fa),并在(zai)短短一(yi)年內獲得(de)美國專利。此外,NovuTensor芯(xin)(xin)片(pian)(pian)采用不(bu)同的異構(gou)(gou)計算(suan)(suan)模(mo)式來應對不(bu)同AI應用領域的三(san)維張量計算(suan)(suan)。2018年下半年,Novumind剛推(tui)出(chu)了新一(yi)代NovuTensor芯(xin)(xin)片(pian)(pian),這(zhe)款(kuan)(kuan)芯(xin)(xin)片(pian)(pian)在(zai)做到15萬億(yi)次計算(suan)(suan)每(mei)秒(miao)的同時,全芯(xin)(xin)片(pian)(pian)功耗控制(zhi)在(zai)約15W,效率(lv)極高。
圖 Novumind的NovuTensor芯片
盡管NovuTensor芯(xin)片(pian)的(de)(de)紙(zhi)面算(suan)力不如英偉(wei)達的(de)(de)芯(xin)片(pian),但(dan)(dan)是(shi)(shi)其計算(suan)延遲(chi)(chi)和功(gong)耗卻低得多,因此適合邊緣端AI計算(suan),也就(jiu)是(shi)(shi)服務于物聯網。雖然大家都在追求高算(suan)力,但(dan)(dan)實際上不是(shi)(shi)所(suo)有芯(xin)片(pian)都需要(yao)高算(suan)力的(de)(de)。比如用在手機、智能(neng)眼(yan)(yan)鏡(jing)上的(de)(de)芯(xin)片(pian),雖然也對算(suan)力有一定要(yao)求,但(dan)(dan)更(geng)需要(yao)的(de)(de)是(shi)(shi)低能(neng)耗,否則你的(de)(de)手機、智能(neng)眼(yan)(yan)鏡(jing)等(deng)產品,用幾下就(jiu)沒電了。并且(qie)據EE Times的(de)(de)報(bao)道,在運(yun)行ResNet-18、ResNet-34、ResNet70、VGG16等(deng)業界標準神(shen)經網絡推理時(shi),NovuTensor芯(xin)片(pian)的(de)(de)吞吐量和延遲(chi)(chi)都要(yao)優于英偉(wei)達的(de)(de)另一款(kuan)高端芯(xin)片(pian)Xavier。
圖 神經元結構
結合(he)Novumind 現階段(duan)的成功,我們不難看(kan)出:在云端(duan)市場目前(qian)被英(ying)偉(wei)達、谷歌等巨頭公司霸占,終端(duan)應用芯(xin)片(pian)群(qun)雄逐(zhu)鹿的情形下,專注(zhu)技(ji)術創新(xin),在關鍵(jian)指標上大幅領先所有競爭對(dui)手,或許是AI芯(xin)片(pian)初創企業的生存(cun)之道。
類腦芯片
如文章(zhang)開頭所(suo)說,目前所(suo)有電腦,包括以上談到(dao)的所(suo)有芯片(pian),都基于馮·諾依(yi)曼架構。
然而這種架構并非(fei)十全(quan)十美。將CPU與內存分開的(de)(de)設計,反而會導致(zhi)所謂的(de)(de)馮·諾伊曼瓶(ping)頸(von Neumann bottleneck):CPU與內存之間的(de)(de)資料傳輸(shu)率(lv),與內存的(de)(de)容量和CPU的(de)(de)工作效率(lv)相比都(dou)非(fei)常小,因此當CPU需要在巨(ju)大的(de)(de)資料上執行一些簡單指令時,資料傳輸(shu)率(lv)就(jiu)成了整體效率(lv)非(fei)常嚴重(zhong)的(de)(de)限制。
既然要研制(zhi)人工智能芯片,那么有的專家就回歸問題本身,開始模仿(fang)人腦的結(jie)構。
人腦(nao)(nao)內有上(shang)(shang)千億(yi)個(ge)神(shen)(shen)經(jing)(jing)元,而且(qie)每個(ge)神(shen)(shen)經(jing)(jing)元都通(tong)過成(cheng)千上(shang)(shang)萬個(ge)突(tu)觸與(yu)其他神(shen)(shen)經(jing)(jing)元相連(lian),形成(cheng)超級龐大(da)的(de)神(shen)(shen)經(jing)(jing)元回路,以分布式和并(bing)(bing)發(fa)式的(de)方式傳導信號,相當于超大(da)規(gui)模(mo)的(de)并(bing)(bing)行計算,因此算力極強。人腦(nao)(nao)的(de)另一個(ge)特點是(shi)(shi),不是(shi)(shi)大(da)腦(nao)(nao)的(de)每個(ge)部分都一直在工作,從而整(zheng)體能耗(hao)很低。
這(zhe)種(zhong)類(lei)腦(nao)芯片(pian)跟傳統的(de)馮·諾依曼架構不同(tong),它(ta)的(de)內(nei)(nei)存(cun)、CPU和通(tong)(tong)信(xin)部(bu)件是完(wan)全集成(cheng)在(zai)一起,把數字處(chu)理(li)(li)器當作神(shen)經(jing)(jing)元(yuan),把內(nei)(nei)存(cun)作為(wei)突觸(chu)。除(chu)此之外(wai),在(zai)類(lei)腦(nao)芯片(pian)上,信(xin)息(xi)的(de)處(chu)理(li)(li)完(wan)全在(zai)本(ben)地進行(xing),而(er)且由(you)于本(ben)地處(chu)理(li)(li)的(de)數據量(liang)并不大,傳統計算機(ji)內(nei)(nei)存(cun)與CPU之間的(de)瓶頸不復存(cun)在(zai)了(le)。同(tong)時(shi)(shi),神(shen)經(jing)(jing)元(yuan)只要接(jie)收到其他(ta)神(shen)經(jing)(jing)元(yuan)發過來的(de)脈(mo)沖,這(zhe)些神(shen)經(jing)(jing)元(yuan)就會(hui)同(tong)時(shi)(shi)做(zuo)動作,因(yin)此神(shen)經(jing)(jing)元(yuan)之間可以(yi)方便快(kuai)捷地相(xiang)互溝通(tong)(tong)。
在類腦芯(xin)(xin)片(pian)的研發上,IBM是行業內的先行者。2014年(nian)IBM發布了(le)TrueNorth類腦芯(xin)(xin)片(pian),這款芯(xin)(xin)片(pian)在直徑只有幾(ji)厘米的方寸空間里,集(ji)成了(le)4096個內核、100萬(wan)個“神經元”和2.56億個“突觸”,能耗(hao)只有不到70毫(hao)瓦,可謂是高集(ji)成、低功耗(hao)的完美演(yan)繹。
圖 裝有16個TrueNorth芯片的DARPA SyNAPSE主板
那么這款芯片(pian)的(de)實(shi)戰表(biao)現如何呢?IBM研究(jiu)小組(zu)曾(ceng)經(jing)利(li)用做(zuo)過(guo)(guo)DARPA的(de)NeoVision2 Tower數據集做(zuo)過(guo)(guo)演示。它能(neng)以30幀每秒速度(du),實(shi)時識別出街景視(shi)頻(pin)中的(de)人、自行(xing)車(che)、公交(jiao)車(che)、卡(ka)車(che)等,準確率達到了(le)80%。相比之(zhi)下,一(yi)臺筆(bi)記(ji)本編程完成同樣的(de)任(ren)務(wu)用時要(yao)慢100倍,能(neng)耗卻(que)是IBM 芯片(pian)的(de)1 萬倍。
然而(er)目前類(lei)腦(nao)芯片(pian)研制(zhi)的(de)挑戰之一(yi),是(shi)在硬件層(ceng)面上(shang)模仿人(ren)腦(nao)中的(de)神經突觸,換而(er)言之就是(shi)設計完(wan)美的(de)人(ren)造突觸。
在現(xian)有的(de)類腦芯片中,通常用施(shi)加電(dian)(dian)壓的(de)方(fang)式來(lai)模擬神(shen)經元(yuan)中的(de)信(xin)息傳(chuan)輸。但(dan)存(cun)在的(de)問題(ti)是,由于(yu)大多數由非晶材料制(zhi)成的(de)人造(zao)(zao)突觸中,離(li)子(zi)通過的(de)路徑(jing)有無(wu)限種可能,難(nan)以(yi)預測離(li)子(zi)究竟走哪一條路,造(zao)(zao)成不同神(shen)經元(yuan)電(dian)(dian)流輸出的(de)差異。
針對這個問題,今年麻省理工的研究團隊制(zhi)造了一種類(lei)腦芯片(pian),其(qi)中的人造突(tu)觸(chu)(chu)(chu)(chu)由硅(gui)鍺制(zhi)成,每個突(tu)觸(chu)(chu)(chu)(chu)約25納米。對每個突(tu)觸(chu)(chu)(chu)(chu)施(shi)加(jia)電壓(ya)時,所有突(tu)觸(chu)(chu)(chu)(chu)都表現(xian)出幾乎(hu)相(xiang)同的離(li)子流,突(tu)觸(chu)(chu)(chu)(chu)之(zhi)間的差(cha)異約為4%。與(yu)無(wu)定(ding)形材料制(zhi)成的突(tu)觸(chu)(chu)(chu)(chu)相(xiang)比,其(qi)性能更為一致。
即便如此,類腦芯(xin)(xin)片距離(li)(li)人(ren)腦也還有相當(dang)大(da)的(de)(de)距離(li)(li),畢竟人(ren)腦里的(de)(de)神(shen)經(jing)元個(ge)數有上(shang)千億個(ge),而(er)現在最(zui)先(xian)進的(de)(de)類腦芯(xin)(xin)片中的(de)(de)神(shen)經(jing)元也只有幾(ji)百萬個(ge),連(lian)人(ren)腦的(de)(de)萬分(fen)之一都不到。因此這類芯(xin)(xin)片的(de)(de)研究,離(li)(li)成為市場(chang)上(shang)可(ke)以大(da)規(gui)模廣泛使用的(de)(de)成熟技術,還有很長(chang)的(de)(de)路要走,但是長(chang)期來看類腦芯(xin)(xin)片有可(ke)能(neng)會帶來計算體(ti)系的(de)(de)革命。