午夜欧美福利,日韩欧美不卡在线,欧美一区福利,99久久综合,国产色啪午夜免费视频,亚洲va久久久久综合,5252色欧美在线男人的天堂

DAV首頁
數字音視工程網

微信公眾號

數字音視工程網

手機DAV

null
null
null
卓華,
招商,
null
null
null
null
null

我的位置:

share

特雅麗智能視頻監(jiān)控四大技術特征分析

來源:數字音視工程網        編輯:merry2013    2014-02-28 06:57:47     加入收藏

目前,對于以目標整體的運動軌跡作為研究目標,提取運動目標的運動特征或者其本身具有的特性這種類開支的視頻智能分析己經取得了一定的成果。

  目前,對于以目標整體的運動軌跡作為研究目標,提取運動目標的運動特征或者其本身具有的特性這種類開支的視頻智能分析己經取得了一定的成果。這一類研究目標不一定是人,也可以是車兩個車輛、動物或飛機、坦克等軍事目標。

  視頻監(jiān)控是視頻工程中重要的技術和應用領域,支撐著發(fā)展的視頻技術在不到一個世紀的發(fā)展過程中,大致經歷了3個跨越式的發(fā)展階段。20世紀30年代,以電視廣播為代表的視頻技術走進了實驗室,進入廣播電視臺和千萬家庭,實現了從靜止圖像傳輸到圖像傳輸的跨越;如今,以智能視頻監(jiān)控(IVS)為代表的視頻技術,正處在走出實驗室、進入到各行各業(yè)的應用階段,將要實現從“機械”的視頻信息處理智能化視頻信息處理的跨越。當前中國正處在這一跨越的關鍵時段。智能視頻監(jiān)控只是智能視頻技術的一個部分,一個將視頻技術引入智能時代的部分。

  智能視頻監(jiān)控技術兩種構架方式

  視頻監(jiān)控的智能化表現為計算機視覺算法在視頻分析中的應用。智能視頻監(jiān)控區(qū)別于的監(jiān)控系統(tǒng)在于變被動監(jiān)控為主動監(jiān)控(自動檢測、識別潛在入侵者、可疑目標和突發(fā)事件),即它的智能性。簡單而言,不僅用攝像機代替人眼,而且用計算機代替人、協(xié)助人,來完成監(jiān)視或控制的任務,從而減輕人的負擔。智能視頻監(jiān)控系統(tǒng)的結構通常有如下兩種:

  1、 主動智能監(jiān)視系統(tǒng),這類系統(tǒng)的特點是主動攝像機不僅可以理解視場內的場景,還可以有選擇性專注于特定的活動或感興趣的事件。主動智能監(jiān)視系統(tǒng)需要額外完成兩個任務:管理主動攝像機資源,即確定哪些攝像機用于監(jiān)視全景,哪些攝像機用于監(jiān)視特定行為或事件;利用視頻分析算法提供的信息控制攝像機的運動和變焦。

  2、 分布落花辭通視,通過無線視頻通信網絡將各點智能攝像機與中心站連接起來,智能監(jiān)視服務器不僅可以生成圖像還可以分析視頻,根據視頻分析的信息控制攝像機以及確定使用恰當的存儲資源和帶寬傳送高質量視頻給終端用戶。智能攝像機最大程度減少了系統(tǒng)結構的成本

  智能視頻監(jiān)控技術特性

  智能視頻監(jiān)控技術一進在發(fā)展,然而環(huán)境的復雜性以及目標行為的多樣性等原因使得智能監(jiān)控算法變得復雜,且算法通常是針對具體的應用而設計的。盡管己經提出許多被證明是有效的智能分析算法,但是受計算機數據處理能力的限制,難以適合實時計算,自適應性也較差,應用場合受限。目前,對于以目標整體的運動軌跡作為研究目標,提取運動目標的運動者其本身所具有的特性這種類型的視頻智能分析己經取得了一定的成果。這一類研究目標不一定是人,也可以是車輛、動物或飛機、坦克等軍事目標。以目標的局部部分運動為研究目標,提取其局部的“肢體語言”特征分析判斷目標的行為,比如視頻的手語識別、步態(tài)識別、表情識別或者動作識別等。此類監(jiān)視問題的困難在于運動模式的提取以及高效可靠的識別乍法。智能視頻監(jiān)控系統(tǒng)可以解決兩個主要問題:一個是將安防操作人員從繁雜而枯燥的“盯屏幕”任務中解脫出來。由機器來完成這部分工作,對異常情況能夠及時處理等,比如報警等;另外一個是為在少量的視頻數據中快速搜索到想要找的圖片。對于上述兩個問題,視頻分析廠家經常抻到的安全是:操作人員盯著屏幕超過10分鐘后將漏掉90%的視頻信息而使這項工作失去意義。倫敦地鐵案中,安保人員花了70個工時才在大量磁帶中找到需要的信息。智能視頻監(jiān)控的核心內容是對特定目標的自動檢測、跟蹤與行為識別,包括運動檢測運動物體,再判定運動物體中的人體,然后跟蹤人體的運動軌跡,并分析和選 定有異常行為的人,如在車站,機場等遺留包裹的人。最后對行為異常的人進行持續(xù)跟蹤。

  移動目標提取

  運動檢測是從圖像序列中將變化區(qū)域從背景圖像中提取出來。運動區(qū)域的有效分割將大大減少后續(xù)過程的運算量。然而,背景圖像的不穩(wěn)定性,如陰影、光照、慢移動、靜移動(樹葉的擺動)等等,也使得運動檢測非常困難。目前較為實用的視頻分析以夷伐夷要兩類:一類是背景減除方法,另一類是時間差分方法。背景減除方法是利用當前圖像和背景圖像的差分來檢測出運動區(qū)域的一種方法,可以提供比較完整的運動目標,精確度和靈敏度比較高,具有良好的性能表現。時間差分法利用視頻圖像特征,從連續(xù)得到的視頻流中提取所需要的動態(tài)目標自信。時間差分實質是利用相鄰幀圖像相減來提取前景目標移動的信息,此方法不能完全提取所有相關特征像數點,在運動實體內部可能產生空洞,能檢測出目標的邊緣。

  移動目標跟蹤

  移動目標跟蹤等價于在連續(xù)的圖像幀間,創(chuàng)建基于位置、速度、開關、紋理、色彩等有關特征的對應匹配問題。常用的數學工具有卡爾曼濾波、Condensation算法及動態(tài)貝葉斯網絡等。其中Kalman濾波是基于高斯分布的狀態(tài)預測方法不能有效地處理多峰模式的分布情況。Condensation算法是以因子抽樣為基礎的條件密度傳播方法,結合可學習的動態(tài)模型,可完成魯棒的運動跟蹤。就跟蹤對象而言,跟蹤如手、臉、頭、腿等身體部分與跟蹤整個目標;就跟蹤視角而言,有對應于單攝像機的單一視角、對應于多攝像機的多視角和全方位視角;當然還可以通過跟蹤空間(二維或三維)、跟蹤環(huán)境(室內或室外)、跟蹤人數(單人、多人、人群)、攝像機狀態(tài)(運動或固定)等方面進行分類。從跟蹤方法的不同討論跟蹤算法。

  (1) 基于模型的跟蹤

  傳統(tǒng)的人體表達方法有如下三種:

  a. 線圖法:人運用的實質是骨骼的運動,因此該表達方法將身體的各個部分以直線來近似。

  b. 二維輪廓(2D Contour):該人體表達方法的使用直接與人體在圖像中的投影有關,如Ju等提出的紙板人模型,它將人的一組連接的平面區(qū)域塊所表達,該區(qū)域塊的參數化運動受關節(jié)運動(Articulated Movement)的約束,該模型被用于關節(jié)運動圖像的分析。

  c. 立體模型(Volumetric Model):它是利用廣義錐臺、橢圓柱、球等三維模型來描述人體的結構細節(jié),因此要求更多的計算參數和匹配過程中更大的云計算量。例如Rohr使用14個橢圓柱體模型來描述人體的結構,坐標系統(tǒng)的原點被定位在軀干的中心,目的是想利用該模型來產生人的行走的三維描述;Wachter與Nagel利用橢圓錐臺建立三維人體模型,通過在連續(xù)的圖像幀問匹配三維人體模型的投影來獲得人運動的定量描述,其中,它利用了迭代的擴展卡爾曼濾波方法,結合邊緣、區(qū)域信息及身體解析約束確定的身體關節(jié)運動的自由度,實現單目圖像序列中人的跟蹤

  (2) 基于區(qū)域的跟蹤

  基于區(qū)域的跟蹤方法目前己有較多的應用,例 如Wren等利用小區(qū)域特征進行室內單人的跟蹤,文中將人體看作由頭、軀干、四肢等身體部分所對應的小區(qū)域塊所組成,利用高斯分布建立人體和場景的模型,屬于人體的像素被規(guī)劃于不同的身體部分。通過跟蹤各個小區(qū)域塊來完成整個人的跟蹤?;趨^(qū)域跟蹤的難點是處理運動目標的蚊子來遮擋,這或許可利用彩色信息以及陰影區(qū)域缺乏紋理的性質來加以解決,如McKenna等首先利用色彩和梯度信息建立自適應的背景模型,并且利用背景減除方法提取運動區(qū)域,有效地消除了蚊子的影響;然后,跟蹤過程在區(qū)域、目標、目標群三個抽象級別上執(zhí)行,區(qū)域可以合并和分享,而人是由許多身體部分區(qū)域在滿足幾何約束的條件下組成的,同是人群又是由單個的人組成的,因此利用區(qū)域跟蹤器并結合人的表面顏色模型,在遮擋情況下也能夠較好地守成多人的跟蹤。

  (3) 基于活動輪廓的跟蹤

  基于活動輪廓的跟蹤思想是利用封閉的曲線輪廓來表達運動目標,并且該輪廓能夠自動連續(xù)地更新。例如Paragios與Deriche利用短程線的活動輪廓、結合Level Sel理論在圖像序列中檢測和跟蹤多個運動目標,采用基于卡爾曼濾波的活動輪廓來跟蹤非剛性的運動物體;利用隨機微分方程去描述復雜的運動模型,并與可變形模板相結合應用于人的跟蹤。相對于基于區(qū)域的跟蹤方法,輪廓表達有減少計算復雜度的優(yōu)點。如果開始能夠合理地分開每個運動目標并實現輪廓初始化的話,即使在有部分遮擋存在的情況下也能連續(xù)地進行跟蹤,然而初始化通常是很困難的

  (4) 基于特征的跟蹤

  基于特征的跟蹤包括特征的特征的匹配兩個過程。一個很好的例子是點特,將每個目標用一個矩形框,封閉框內的質心被選擇作為跟蹤的特征。在跟蹤過程中若兩個出現相互遮擋時,只要質心的速度能被區(qū)分開來,跟蹤仍能被成功地執(zhí)行。該方法的優(yōu)點是實現簡單,并能利用人體運用來解決遮擋問題,但是僅僅考慮了平移運動。如果結合紋理、彩色及形狀等特征可能會進一步提高跟蹤的魯棒性。另外,Segen與Pingali的跟蹤系統(tǒng)使用了運動輪廓的角點作為對應特征,這些特征點采用基于位置和點的曲率值的距離度量在連續(xù)幀間進行匹配

  目標分類

  目標分類的目的是從檢測到的運動區(qū)域中將特定類型物體的運用區(qū)域提取出來,例如分類場景中的人、車輛、人群等不同的目標。跟蹤可利用信息的不同,目標分類 可以分為基于運動特性的分類和基于形狀信息的分類兩種方法?;谶\動特性的識別利用目標運動的周期性進行識別,受顏色、光照的影響較小?;陂_關信息的識別利用檢測出的運動區(qū)域的開關模板或者統(tǒng)計量進行匹配。

  (1) 其于形狀信息的分類

  基于形狀信息的的分類是利用檢測出的運動區(qū)域的開關特征進行目標分類的方法。例如VSAM采用區(qū)域的分散度、面積、寬高比等作為特征,利用三層神經網絡方法將運動目標劃分為人、人群、車和背景干擾;Lipton等利用分散度和面積信息對二維運動區(qū)域進行分類,主要是區(qū)分人、車及混亂振動,時間致性約束使其分類更加準確;Kuno與Watanabe使用簡單的人體輪廓模式的形狀參數從圖像中檢測運動的人。

  (2) 基于運動特性的分類

  基于運動特性的分類是利用人體運動的周期性進行目標分類的方法。例如Cutler與Kavis通過跟蹤感興趣的運動目標,計算出目標隨著時間變化的自相關特性,而人的周期性運動使得其自相關也是周期性的,因此通過時頻化方法分析目標是否存在周期性的運動特性而將人識別出來。Lipton通過計算運動區(qū)域的殘余光流來分析運動實體的剛性和周期性,非剛性的人的運動相比于剛性的車輛運動而言具有較高的平均殘余光流,同時也呈現了周期性的運動特征,據此可以將人區(qū)分出來。目標識別是系統(tǒng)對之前提取并跟蹤的目標進行識別和辨識。要想讓系統(tǒng)具有目標識別和辨別能力,需要對系統(tǒng)進行模型訓練。就是利用己知的目標特征(如車輛、人員、動物等),對系統(tǒng)進行訓練,系統(tǒng)將會在大量己知的樣本信息上了解、學習不同目標的特征(大小、顏色、速度、行為方式等),這樣當系統(tǒng)發(fā)現一個目標時,系統(tǒng)將自動與己經建立好的模型進行比對匹配特征,從而對目標進行識別和分類

  行為識別

  目標的行為識別是近年來被廣泛關注的研究熱點,是指對目標的運動模式進行分析和識別。行為識別可以簡單地被認為是時變數據的分類問題,即將測試序列進行匹配。通過在跟蹤過程中檢測目標的行為以及行為變化,根據用戶的自定義行為規(guī)則,判斷被跟蹤目標的行為是否存在威脅。

  (1) 模板匹配方法

  采用模板匹配技術的行為識別方法道先將圖像序列轉換為一組靜態(tài)開關模式,然后在識別過程中和預先存儲的行為標本相比較。模板匹配技術的優(yōu)瞇是計算復雜度低、實現簡單,然而對于噪聲和運動時間間隔的變化是敏感的。

  (2) 狀態(tài)空間方法

  基于狀態(tài)空間模型的方法定義每個靜態(tài)姿勢作為一個狀態(tài),這些狀態(tài)之間通過某種概率聯(lián)系起來。任何運動序列可以看作為這些靜態(tài)姿勢的不同狀態(tài)之間的一次遍歷過程,在這些遍歷期間計算聯(lián)合概率,其最大值被選擇作為分類行為的標準。目前,狀態(tài)空間模型己經被廣泛應用于時間序列的預測、估計和檢測,最有代表性的是HMMS。每個狀態(tài)中可用于識別的特征包括點、線或二維小區(qū)域。狀態(tài)空間方法雖然能克服模板匹配的缺點,但通常涉及到復雜的迭代運算。

  結束語

  視頻監(jiān)控系統(tǒng)的核心價值在于智能視頻分析技術,由運動目標檢測、分類、跟蹤和行為識別等幾個基本節(jié)組成,還包括智能視頻檢索技術,其中行為識別又包括異常行為檢測、異常事件檢測以及視頻內容理解描述等。近年來,智能視頻監(jiān)控技術取得長足發(fā)展,應用領域不斷擴大,從自動目標檢測到現在的事件檢測、自動目標識別,其監(jiān)控產品也逐漸由模擬化向數字化、網絡化與智能化方向發(fā)展。

免責聲明:本文來源于網絡收集,本文僅代表作者個人觀點,本站不作任何保證和承諾,若有任何疑問,請與本文作者聯(lián)系或有侵權行為聯(lián)系本站刪除。
掃一掃關注數字音視工程網公眾號

相關閱讀related

評論comment

 
驗證碼:
您還能輸入500