面向視(shi)頻監控應用的智能(neng)分析技(ji)(ji)術(shu)是一項(xiang)覆蓋(gai)圖(tu)(tu)像處理、計(ji)(ji)算(suan)機(ji)(ji)視(shi)覺、機(ji)(ji)器學(xue)習(xi)、概率統計(ji)(ji)、深(shen)度(du)學(xue)習(xi)、并行(xing)計(ji)(ji)算(suan)與GPU 優化等多個領域(yu)的應用技(ji)(ji)術(shu)。這些技(ji)(ji)術(shu)領域(yu)本身在(zai)不(bu)斷的發展當中,有(you)些發展還不(bu)是很完善(shan)。這必(bi)然導(dao)致視(shi)頻監控中的智能(neng)分析技(ji)(ji)術(shu)也處于不(bu)斷發展的態勢(shi)。尤(you)其進入2010 年(nian)代,隨著互聯(lian)網數據量爆炸式的增長,催(cui)生大數據和云計(ji)(ji)算(suan)技(ji)(ji)術(shu)的出(chu)現(xian),尤(you)其是把二者結合的深(shen)度(du)學(xue)習(xi)技(ji)(ji)術(shu)發展的如火如荼(tu),在(zai)圖(tu)(tu)像識(shi)(shi)別、視(shi)頻識(shi)(shi)別領域(yu)的應用帶(dai)來了革命性(xing)的更新(xin)。
遙想2005 年前后,視(shi)頻(pin)監控(kong)(kong)領(ling)域(yu)智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)技(ji)術(shu)(shu)剛剛起(qi)步(bu),采用傳統圖像(xiang)處(chu)理(li)技(ji)術(shu)(shu)和基于(yu)手工設計(ji)特征訓練(lian)分(fen)類器,效果和性能(neng)(neng)(neng)(neng)不盡人(ren)意,同時客(ke)(ke)戶對智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)技(ji)術(shu)(shu)沒有(you)客(ke)(ke)觀(guan)的(de)(de)(de)(de)(de)認識,有(you)的(de)(de)(de)(de)(de)盲目(mu)樂觀(guan),也有(you)的(de)(de)(de)(de)(de)盲目(mu)悲觀(guan),智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)產品(pin)舉步(bu)維艱(jian)。經過10 年的(de)(de)(de)(de)(de)技(ji)術(shu)(shu)發展(zhan)(zhan)和市場培育,客(ke)(ke)戶對智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)具有(you)較為客(ke)(ke)觀(guan)的(de)(de)(de)(de)(de)認識。智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)應用從(cong)視(shi)頻(pin)監控(kong)(kong)行(xing)業(ye)的(de)(de)(de)(de)(de)輔(fu)助功能(neng)(neng)(neng)(neng)發展(zhan)(zhan)成為安防行(xing)業(ye)的(de)(de)(de)(de)(de)本質需求(qiu),這(zhe)與(yu)智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)技(ji)術(shu)(shu)的(de)(de)(de)(de)(de)高速發展(zhan)(zhan)分(fen)不開的(de)(de)(de)(de)(de)。相信在(zai)未來的(de)(de)(de)(de)(de)一(yi)段時間內,智(zhi)(zhi)能(neng)(neng)(neng)(neng)分(fen)析(xi)技(ji)術(shu)(shu)的(de)(de)(de)(de)(de)發展(zhan)(zhan)更加(jia)迅速,在(zai)視(shi)頻(pin)監控(kong)(kong)行(xing)業(ye)的(de)(de)(de)(de)(de)應用形式和產品(pin)形態(tai)也會發生很大(da)的(de)(de)(de)(de)(de)變(bian)化。
本文從傳統目標(biao)跟蹤算(suan)法和最新(xin)的深度(du)卷積網絡算(suan)法兩個(ge)角度(du)來(lai)展(zhan)現智(zhi)能(neng)分(fen)析技術的最新(xin)的發展(zhan)。
CMT 跟蹤算法
CMT 跟蹤算法主要由WACV(WinterConference on Applications of Computer Vision)2014 會議上的《Consensus-basedMatching and Tracking of Keypoints forObject Tracking 》和CVPR 2015 會議上的《Clustering of Static - Adaptive Correspondencesfor Deformable Object Tracking 》構成(cheng) 。并(bing)且在W A C V 2014 獲得(de)最佳論文(wen)獎(jiang)項(Best PaperAward)。由奧(ao)地利技術學院的Georg Nebehay提出。
(圖1)CMT 跟蹤算法流程框圖
CMT 跟蹤(zong)相(xiang)比之(zhi)前的(de)TLD 算法(fa)性能提高(gao)許多。可以認(ren)為是(shi)TLD 之(zhi)后的(de)下一代(dai)跟蹤(zong)算法(fa)。TLD 算法(fa)使用整體(ti)模(mo)型進行(xing)跟蹤(zong)。CMD跟蹤(zong)的(de)基本思路是(shi)能夠不斷(duan)檢測物體(ti)特征,并通(tong)過多種手(shou)段對檢測到的(de)物體(ti)特征進行(xing)反復(fu)匹(pi)配驗證,實現高(gao)準(zhun)確度跟蹤(zong),同時計算資源又很節省,適合(he)在前端相(xiang)機(ji)段運行(xing)。
CMT 算(suan)法(fa)(fa)(fa)中把跟(gen)蹤目標稱為(wei)(wei)前(qian)(qian)景(jing),其他部分為(wei)(wei)背景(jing),前(qian)(qian)景(jing)用包圍框(kuang)框(kuang)住。若當(dang)前(qian)(qian)幀(zhen)(zhen)為(wei)(wei)第N 幀(zhen)(zhen),前(qian)(qian)一(yi)(yi)幀(zhen)(zhen)為(wei)(wei)N-1 幀(zhen)(zhen)。CMT 跟(gen)蹤算(suan)法(fa)(fa)(fa)流(liu)程如(ru)圖1 所示。一(yi)(yi)般的跟(gen)蹤算(suan)法(fa)(fa)(fa)和(he)背景(jing)建模與前(qian)(qian)景(jing)檢(jian)測(ce)算(suan)法(fa)(fa)(fa)類似一(yi)(yi)般運行(xing)在(zai)前(qian)(qian)端設備,由(you)于前(qian)(qian)端相機計(ji)算(suan)資(zi)源有限,不太會(hui)運行(xing)復雜(za)的機器學習算(suan)法(fa)(fa)(fa)。由(you)如(ru)圖1 可見,整個CMT 流(liu)程由(you)光流(liu)算(suan)法(fa)(fa)(fa)、KNN 聚(ju)類和(he)層次(ci)聚(ju)類構成,但(dan)是巧(qiao)妙之處(chu)在(zai)于進行(xing)對當(dang)前(qian)(qian)第N 幀(zhen)(zhen)和(he)前(qian)(qian)一(yi)(yi)幀(zhen)(zhen)第N-1 幀(zhen)(zhen)的光流(liu)法(fa)(fa)(fa)得到(dao)的跟(gen)蹤關鍵點(dian),以(yi)及有特(te)征(zheng)點(dian)檢(jian)測(ce)得到(dao)的特(te)征(zheng)點(dian),兩種點(dian)進行(xing)反(fan)復驗證融合,大(da)大(da)提高魯棒性。
CMT 算法首(shou)先對(dui)首(shou)幀檢測FAST 特(te)征(zheng)(zheng)點(dian)及其(qi)BRISK 特(te)征(zheng)(zheng)描述(shu),其(qi)中(zhong)包括前景(jing)(jing)框(kuang)中(zhong)的(de)(de)(de)特(te)征(zheng)(zheng)點(dian)。然后(hou)把(ba)前景(jing)(jing)框(kuang)的(de)(de)(de)特(te)征(zheng)(zheng)點(dian)與背景(jing)(jing)部分的(de)(de)(de)特(te)征(zheng)(zheng)分為兩類保存,并求取(qu)前景(jing)(jing)框(kuang)中(zhong)的(de)(de)(de)兩兩特(te)征(zheng)(zheng)點(dian)之間的(de)(de)(de)相對(dui)距離和相對(dui)角度。對(dui)后(hou)續(xu)的(de)(de)(de)每(mei)一(yi)幀繼續(xu)檢測FAST 特(te)征(zheng)(zheng)點(dian)及其(qi)BRISK 特(te)征(zheng)(zheng)描述(shu)。對(dui)當前幀(從第二(er)幀開始)中(zhong)使用BRISK 特(te)征(zheng)(zheng)描述(shu)在前一(yi)幀前景(jing)(jing)特(te)征(zheng)(zheng)點(dian)進行KNN 聚類,從特(te)征(zheng)(zheng)點(dian)的(de)(de)(de)角度對(dui)前景(jing)(jing)點(dian)進行驗(yan)證。
并對(dui)后續(xu)的每(mei)一幀(從第二幀開(kai)始)的前(qian)景框內的關鍵點(dian),進行(xing)前(qian)向(xiang)光(guang)(guang)流估計(ji)(N-1 → N),對(dui)得到的光(guang)(guang)流點(dian)再進行(xing)后向(xiang)光(guang)(guang)流估計(ji)(N → N-1),經過雙向(xiang)驗證去掉假的前(qian)向(xiang)光(guang)(guang)流估計(ji)。這樣對(dui)光(guang)(guang)流跟蹤和特征描述聚(ju)類兩(liang)個角度的跟蹤點(dian)進行(xing)融合。
前景(jing)(jing)(jing)目標在(zai)(zai)攝像(xiang)機場景(jing)(jing)(jing)中(zhong)運動的(de)過(guo)程中(zhong),物(wu)距(ju)發生變(bian)化(hua),由透(tou)視成(cheng)像(xiang)原理得知,前景(jing)(jing)(jing)目標成(cheng)像(xiang)尺(chi)寸會(hui)發生變(bian)化(hua),同時也會(hui)發生旋轉變(bian)化(hua)。CMT 跟蹤算法(fa)考慮到了這兩種(zhong)變(bian)化(hua)。所以在(zai)(zai)首(shou)幀(zhen)時已(yi)經記錄(lu)了前景(jing)(jing)(jing)框內(nei)所有關鍵點(dian)兩兩點(dian)之間的(de)距(ju)離矩(ju)陣和相對角(jiao)(jiao)度(du)矩(ju)陣。在(zai)(zai)后續(xu)的(de)每一(yi)幀(zhen)時,也同時距(ju)離當前幀(zhen)前景(jing)(jing)(jing)框內(nei)所有點(dian)兩兩點(dian)的(de)距(ju)離和相對角(jiao)(jiao)度(du)。然(ran)后根據中(zhong)值(zhi)算法(fa),計算當前前景(jing)(jing)(jing)點(dian)相對首(shou)幀(zhen)前景(jing)(jing)(jing)的(de)縮放尺(chi)寸和旋轉角(jiao)(jiao)度(du)。
然后根(gen)據相對首幀的縮放尺寸和(he)旋轉(zhuan)角度中(zhong)值,對每個特(te)征點(dian)(dian)進(jin)行(xing)進(jin)行(xing)投票(piao),并采用層次聚類的方法選取最(zui)大的類也就是最(zui)一致的變換(huan)點(dian)(dian),并把變換(huan)點(dian)(dian)轉(zhuan)換(huan)回特(te)征點(dian)(dian),得(de)到在(zai)當前幀上的有效特(te)征點(dian)(dian)。并得(de)到當前前景框(kuang)的中(zhong)心點(dian)(dian)估計。
然后使用估計(ji)得到的中心點,在當前幀(zhen)內,再從特征點的角度(du)相對首幀(zhen)的前景點變(bian)換后的點進行KNN 聚類(lei),進一步驗證當前關鍵(jian)點的準確性。
CMT 跟(gen)蹤(zong)(zong)算法(fa)減小輕便,不(bu)依賴模型學(xue)習,準確(que)率(lv)高,適宜(yi)在前端相(xiang)機進行行人跟(gen)蹤(zong)(zong)、車輛(liang)圖像(xiang)屬性塊跟(gen)蹤(zong)(zong),大大提高產品(pin)性能,為其他算法(fa)模塊提供有效(xiao)資源。
宇(yu)視結合不同智能相機實際應用場景(jing),以CMT 算(suan)法為指(zhi)導(dao),對現有(you)跟蹤算(suan)法進行(xing)改進,取得了更優(you)秀(xiu)的效果(guo),把相機的智能分析功能提高到更高的一個層次。
深度卷積網絡
卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)(Convolutional Networks)又常稱(cheng)為(wei)(wei)神(shen)經(jing)網(wang)(wang)絡(luo)(luo)(luo)(Neural Networks) 或者卷(juan)積(ji)(ji)神(shen)經(jing)網(wang)(wang)絡(luo)(luo)(luo)(Convolutional NeuralNetworks,CNN)。多層卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)稱(cheng)之為(wei)(wei)深度(du)卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)。卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)最基(ji)本的(de)運算(suan)單(dan)元(yuan)稱(cheng)為(wei)(wei)神(shen)經(jing)元(yuan),如(ru)圖(tu)2 所(suo)示。正(zheng)如(ru)深度(du)卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)之父Yan LeCun 指(zhi)出的(de)卷(juan)積(ji)(ji)網(wang)(wang)絡(luo)(luo)(luo)嚴(yan)格(ge)來說不能(neng)稱(cheng)之為(wei)(wei)神(shen)經(jing)網(wang)(wang)絡(luo)(luo)(luo),同樣(yang)神(shen)經(jing)元(yuan)運算(suan)單(dan)元(yuan)也不是(shi)神(shen)經(jing)科(ke)學意義(yi)上(shang)的(de)神(shen)經(jing)元(yuan)。其實到(dao)目前為(wei)(wei)止,人類(lei)還未真正(zheng)弄清(qing)楚(chu)人腦的(de)工作(zuo)機理,但(dan)是(shi)在一定程度(du)上(shang)人們知(zhi)道一個大腦皮(pi)層神(shen)經(jing)元(yuan)的(de)工作(zuo)過程。
(圖2)神經元
(圖3)大腦皮層神經元
如(ru)圖3所示(shi),神(shen)經(jing)(jing)(jing)元具(ju)有(you)一個(ge)軸(zhou)突(tu)(tu)(tu)(tu)(axon)分(fen)支,同時有(you)一個(ge)收集來自其他神(shen)經(jing)(jing)(jing)元輸入的樹(shu)突(tu)(tu)(tu)(tu)樹(shu)(dendritic tree)。軸(zhou)突(tu)(tu)(tu)(tu)通常在突(tu)(tu)(tu)(tu)觸(chu)(synapses)和樹(shu)突(tu)(tu)(tu)(tu)樹(shu)進行通信。有(you)一個(ge)軸(zhou)丘(axon hillock),每(mei)當足夠的電荷(he)(he)流出突(tu)(tu)(tu)(tu)觸(chu),以使得細胞(bao)膜去極(ji)化后,就會生(sheng)成峰(feng)值(zhi),軸(zhou)突(tu)(tu)(tu)(tu)上的激勵(li)峰(feng)值(zhi)會注入電荷(he)(he)到突(tu)(tu)(tu)(tu)觸(chu)后的神(shen)經(jing)(jing)(jing)元。
所謂深度(du)卷(juan)積網絡中的(de)神經(jing)元只是大(da)腦(nao)皮層(ceng)(ceng)(ceng)神經(jing)元的(de)近(jin)似。模仿大(da)腦(nao)神經(jing)元層(ceng)(ceng)(ceng)層(ceng)(ceng)(ceng)連(lian)接成網狀的(de)結(jie)構(gou),把一個個神經(jing)元計算單元層(ceng)(ceng)(ceng)層(ceng)(ceng)(ceng)排列進行連(lian)接,就構(gou)成了所謂的(de)深度(du)卷(juan)積網絡。
卷積(ji)神經網絡并不是個新(xin)算法。在20 世(shi)紀50 年(nian)代就已經出現,后來到80 年(nian)代出現了使用CNN 進行數(shu)字(zi)識別,但(dan)是由于訓(xun)練時間過長,仍(reng)然沒有大量使用。
CNN 再次(ci)引入注目是Geoffrey E. Hinton(CNN 的(de)(de)另一個發明(ming)者) 及其(qi)弟子AlexKrizhevsky 在(zai)(zai)NIPS2014 會議上發表(biao)《ImageClassification with Deep ConvolutionalNeural Networks》,首次(ci)使用(yong)深度(du)卷積(ji)神經網絡(luo)在(zai)(zai) LSVRC-2010 ImageNet(2010 年(nian)度(du)大(da)(da)(da)規(gui)模視覺識(shi)別(bie)挑戰賽(Large Scale VisualRecognition Challenge)數據(ju)集ImageNet)數據(ju)集上進(jin)行(xing)(xing)通用(yong)目標的(de)(de)檢(jian)測,其(qi)TOP-1 錯(cuo)誤(wu)(wu)率和(he)TOP-5 錯(cuo)誤(wu)(wu)率比(bi)先前(qian)的(de)(de)基于(yu)(yu)手工設(she)計特征的(de)(de)最好的(de)(de)方法(fa)都(dou)要優秀很多很多。同時(shi)(shi)該論文使用(yong)GPU 進(jin)行(xing)(xing)加速,大(da)(da)(da)大(da)(da)(da)縮(suo)短(duan)模型訓(xun)練時(shi)(shi)間,提高CNN 訓(xun)練的(de)(de)可(ke)行(xing)(xing)性。其(qi)實(shi)CNN的(de)(de)再次(ci)風靡,不僅是由(you)于(yu)(yu)近幾年(nian)GPU 加速技(ji)術(shu)的(de)(de)突飛猛進(jin),大(da)(da)(da)大(da)(da)(da)縮(suo)短(duan)CNN 的(de)(de)訓(xun)練時(shi)(shi)間,同時(shi)(shi)由(you)于(yu)(yu)移動(dong)互聯網和(he)智能手機(ji)拍照功能的(de)(de)增強,可(ke)以輕易獲得百萬(wan)級(ji)別(bie)的(de)(de)訓(xun)練樣本,所以說是現在(zai)(zai)具備了訓(xun)練CNN 的(de)(de)客觀條件。
尤其是在視頻(pin)監控(kong)行(xing)業,大量部署的(de)智能(neng)相(xiang)機24 小時不間(jian)斷的(de)采集車輛、行(xing)人等等各(ge)種圖片(pian)視頻(pin)信息。海量視頻(pin)圖片(pian)信息對采用CNN 算法(fa)提供(gong)了(le)天(tian)然的(de)優(you)勢資源(yuan)。
(圖4)LeNet
(圖5)DeepID2
我們知道深(shen)度(du)神經網絡屬于機(ji)器學習(Machine Learning)學科范疇,機(ji)器學習科學除了(le)CNN 之外還包括(kuo)聚類算法,SVM 算法、深(shen)度(du)波(bo)茲曼機(ji)器、深(shen)度(du)遞歸(gui)網絡,深(shen)度(du)信(xin)念網絡等(deng)。這些算法應用在視頻監控(kong)領域的智能分析技術(shu)的方(fang)方(fang)面面,它們的訓練都與海量樣本有(you)關。
機(ji)器學習在視頻監(jian)控行業的(de)(de)應用主要有通用目(mu)(mu)標(biao)(biao)(biao)檢(jian)測(ce)、定位、識(shi)別,通用目(mu)(mu)標(biao)(biao)(biao)包括車(che)輛、車(che)型、車(che)標(biao)(biao)(biao)、各(ge)種(zhong)非機(ji)動、行人(ren)等,還可以是各(ge)種(zhong)目(mu)(mu)標(biao)(biao)(biao)的(de)(de)屬性(xing)檢(jian)測(ce),比(bi)如(ru)車(che)身顏色(se)、行人(ren)發式或者衣服屬性(xing)識(shi)別。傳統智能分(fen)析技術中(zhong)的(de)(de)背景建模與前(qian)景檢(jian)測(ce)、運(yun)動目(mu)(mu)標(biao)(biao)(biao)檢(jian)測(ce)、運(yun)動目(mu)(mu)標(biao)(biao)(biao)跟蹤等傳統應用也使用機(ji)器學習中(zhong)的(de)(de)各(ge)種(zhong)算法(fa),比(bi)如(ru)聚(ju)類算法(fa)、光流算法(fa)、各(ge)種(zhong)特征(zheng)描述(shu)符等。
在最(zui)新的Garner2015 新興技術(shu)發展周期(qi)(qi)報告上(圖6 和圖7),大數據(Big Data)在2015 年(nian)的炒作周期(qi)(qi)表(biao)(biao)上已經(jing)看不到(dao)它了,2014 年(nian)的炒作周期(qi)(qi)表(biao)(biao)上已經(jing)表(biao)(biao)明它正走向低谷。這可能意味著最(zui)后(hou)關(guan)注的大數據相關(guan)技術(shu)已經(jing)不是一(yi)種新興技術(shu),它們已經(jing)用于實踐當中。機器學習在今年(nian)的周期(qi)(qi)表(biao)(biao)中首次出現,但是已經(jing)越過(guo)了膨脹預期(qi)(qi)的頂峰,取代了大數據技術(shu)。
(圖6)Gartner 2015新興技術發展周期 (圖7)Gartner 2014新興技術發展周期
在(zai)CVPR2015會(hui)議召開(kai)之(zhi)際,文章《Deep down the rabbit hole: CVPR 2015 and beyond》中作(zuo)者(zhe)(zhe)認為在(zai)CVPR2015會(hui)議上(shang),若提交的(de)論文沒有采用(yong)DNN(Deep NeuralNet works),不把ConvNet(深度卷積(ji)網絡開(kai)源庫(ku),深度卷積(ji)網絡(Deep Convolutional Networks)是一種(zhong)主要(yao)的(de)DNN)作(zuo)為比(bi)較(jiao)基準,很難(nan)被采用(yong)。作(zuo)者(zhe)(zhe)同時把CNN的(de)之(zhi)父YannLeCun的(de)地位(wei)提高(gao)的(de)笛卡爾坐標系在(zai)數學界的(de)高(gao)度(圖8)。可見DNN在(zai)計算(suan)機學習領域的(de)影響之(zhi)大。
這表明在(zai)今年以(yi)(yi)及未來(lai)(lai)的(de)一段(duan)時(shi)間里(li),機器學(xue)(xue)習(xi)相(xiang)關技(ji)術會(hui)(hui)吸引更(geng)過的(de)科研機構投入其中,結(jie)合愈(yu)來(lai)(lai)愈(yu)豐富的(de)海量(liang)數(shu)據,尤其海量(liang)圖片和視(shi)頻數(shu)據,一定(ding)會(hui)(hui)在(zai)視(shi)頻監(jian)控(kong)(kong)(kong)領域,發(fa)掘出(chu)更(geng)多(duo)更(geng)優秀的(de)算(suan)(suan)法出(chu)來(lai)(lai),對視(shi)頻監(jian)控(kong)(kong)(kong)行(xing)(xing)業產(chan)生更(geng)深的(de)影(ying)響(xiang),這將(jiang)極(ji)大提升視(shi)頻監(jian)控(kong)(kong)(kong)領域中的(de)許多(duo)智能(neng)(neng)分析(xi)技(ji)術的(de)升級換(huan)代,給客(ke)戶(hu)(hu)帶來(lai)(lai)更(geng)高的(de)準確度(du)和性能(neng)(neng)。比如(ru)最近微軟云(yun)服(fu)務azure,以(yi)(yi)及阿里(li)云(yun)服(fu)務,還有開源(yuan)云(yun)計(ji)算(suan)(suan)平臺Spark,都在(zai)其中添加(jia)了GPU加(jia)速的(de)機器學(xue)(xue)習(xi)功能(neng)(neng),這會(hui)(hui)極(ji)大促進機器學(xue)(xue)習(xi)云(yun)服(fu)務的(de)推(tui)廣(guang)與普及。雖然目(mu)前在(zai)視(shi)頻監(jian)控(kong)(kong)(kong)行(xing)(xing)業還未看到(dao)類似的(de)使(shi)用GPU加(jia)速的(de)機器學(xue)(xue)習(xi)云(yun)服(fu)務,但相(xiang)信在(zai)不久(jiu)的(de)將(jiang)來(lai)(lai),會(hui)(hui)在(zai)監(jian)控(kong)(kong)(kong)行(xing)(xing)業出(chu)現這樣的(de)服(fu)務項(xiang)目(mu),客(ke)戶(hu)(hu)需(xu)要(yao)服(fu)務時(shi),只需(xu)要(yao)把圖片視(shi)頻上傳到(dao)云(yun)端(duan),云(yun)端(duan)分布式(shi)GPU深度(du)學(xue)(xue)習(xi)模塊很快的(de)就返回具有可視(shi)化功能(neng)(neng)的(de)結(jie)果顯示,各(ge)個派出(chu)所(suo)級別(bie)的(de)客(ke)戶(hu)(hu)沒有必(bi)要(yao)再(zai)單獨購買智能(neng)(neng)分析(xi)設備。
為更好(hao)的(de)(de)迎接機器學(xue)習(xi),尤其(qi)是深(shen)度(du)學(xue)習(xi),以及GPU加速對視(shi)頻監(jian)控領(ling)域(yu)的(de)(de)智能分析(xi)技術(shu)帶來的(de)(de)深(shen)刻(ke)變革(ge),專門成立了機器學(xue)習(xi)研(yan)(yan)究(jiu)院,專注于在視(shi)頻監(jian)控領(ling)域(yu),機器學(xue)習(xi)結合傳(chuan)統智能分析(xi)技術(shu),深(shen)入研(yan)(yan)究(jiu)下一代智能分析(xi)算(suan)法以及產(chan)品形(xing)態。
目前,宇視已經把機器學習算法(fa)深入(ru)應用(yong)到車輛檢(jian)(jian)測與識別(bie)(bie)、車輛各種屬性檢(jian)(jian)測與識別(bie)(bie)、人體身份一致(zhi)性識別(bie)(bie)等等多個產品(pin)中,致(zhi)力于為客戶帶來更高品(pin)質的智能體驗。