視頻跟蹤算法在Davinci SOC上的實現(xiàn)與優(yōu)化
引言
本文引用地址:http://cafeforensic.com/article/269186.htm目標(biāo)跟蹤作為計算機視覺的一個極具挑戰(zhàn)性的研究任務(wù),已被廣泛的應(yīng)用在人機交互、智能監(jiān)控、醫(yī)學(xué)圖像處理等領(lǐng)域中。目標(biāo)跟蹤的本質(zhì)是在圖像序列中識別出目標(biāo)的同時對其進行精確定位。為了克服噪聲、遮擋、背景的改變等對目標(biāo)識別帶來的困難,出現(xiàn)了很多的跟蹤算法。
因為目標(biāo)跟蹤算法需要處理的數(shù)據(jù)量大、運算復(fù)雜,需要性能強大的處理器才能實時處理。我們選用TI推出的最新產(chǎn)品TMS320DM6446實現(xiàn)算法。TMS320DM6446是一款高度集成的片上系統(tǒng),集成了可以運行頻率高達(dá)594MHz的C64x+ DSP核和297MHz的ARM926處理器核。另外它還集成了數(shù)字視頻所需的許多外部組件,如視頻加速器,網(wǎng)絡(luò)外設(shè)及高速外部存儲接口。本設(shè)計充分利用DM6446的強大運算能力,在DSP內(nèi)核上實時運行目標(biāo)跟蹤算法。 設(shè)計還在ARM處理器上執(zhí)行多線程應(yīng)用程序,負(fù)責(zé)視頻采集,顯示,網(wǎng)絡(luò)通信,外圍器件控制等工作。
算法介紹
本系統(tǒng)實現(xiàn)的視頻跟蹤算法可參考文獻[1]-[5],整個算法分為基本算法和改進算法兩部分。本算法是一種基于模板匹配技術(shù)的跟蹤算法,即在手工選定或自動選定了待跟蹤目標(biāo)后,提取目標(biāo)的外觀信息作為模板,在后續(xù)的視頻序列中,將候選圖像區(qū)域與目標(biāo)模板進行匹配,將最相似的圖像區(qū)域作為運動目標(biāo)當(dāng)前的位置。在本文中,采用結(jié)構(gòu)相似度,即“歸一化互相關(guān)系數(shù)”作為候選區(qū)域與目標(biāo)模板相似程度的度量標(biāo)準(zhǔn),其計算公式如下所示:
上式中,f(m,n)和g(m,n)分別為目標(biāo)模板和候選區(qū)域的灰度值矩陣,尺寸為MxN。uf和ug分別為目標(biāo)模板和候選區(qū)域的灰度平均值,然后再求出f(m,n)和g(m,n)的協(xié)方差、f(m,n)的方差、g(m,n)的方差后,求出歸一化互相關(guān)系數(shù)。式(1)通過從灰度值矩陣中減去灰度均值,有效地消除了光照給跟蹤結(jié)果帶來的影響。而對于匹配圖像區(qū)域的搜索,為了達(dá)到減少匹配次數(shù)從而降低計算量的目的,我們借鑒了視頻壓縮領(lǐng)域中的三步搜索法(Three Step Search, TSS) 作為最匹配點的搜索算法[2]。
為了增加模板匹配視頻目標(biāo)跟蹤算法的魯棒性,我們在基本算法的基礎(chǔ)上實現(xiàn)了改進算法的部分。改進算法具有自適應(yīng)遮擋處理與模板漂移抑制的能力,能夠很好地解決前面提到模板匹配的視頻目標(biāo)跟蹤算法需要解決的難題。具體來說,主要有如下四點改進:(1) 抑制漂移的帶掩蔽卡爾曼外觀濾波算法(Drift-Inhibitive Masked Kalman Appearance Filter, DIMKAF ) [1][3][4] ;(2) 內(nèi)容自適應(yīng)漸進式遮擋分析算法(Content-Adaptive Progressive Occlusion Analysis, CAPOA)[1][5];(3) 可變掩蔽模板匹配算法(Variant-Mask Template Matching, VMTM)[1][5];(4) 局部最優(yōu)匹配鑒定算法(Local Best Match Authentication, LBMA)[1]。 改進后整個算法的流程圖如下所示:
圖 1 跟蹤算法主流程圖
評論