【摘 要】GPS信號對建筑物的穿透能力有限,無法滿足人們室內定位精度的需求。為了彌補這一不足,通過對現有室內定位技術進行研究,對比分析各種技術在不同室內環(huán)境下的優(yōu)缺點,提出了基于PDR輔助視覺室內定位的方法。首先對光照條件不足和誤差累積對于定位精度的影響進行獨立評價,然后綜合考慮多種因素融合算法性能進行分析,并給出了復雜室內環(huán)境下應用該算法進行定位的可行性。最后通過實驗證實了該算法的可靠性和魯棒性。
【關鍵詞】室內定位;視覺定位;PDR;融合算法
推薦閱讀:《影像視覺》(月刊)創(chuàng)刊于1973年,由科學技術部和新聞出版署批準,國內外公開發(fā)行,全國感光材料信息站主辦。
1 引言
由于室內環(huán)境復雜多變,人們對于室內位置服務的要求也越來越高。一系列的定位技術如Wi-Fi定位、藍牙定位、慣性導航系統(INS, Inertial Navigation System)、基于視覺的定位等技術得到了研究人員的高度關注。然而,每種技術都有自己的優(yōu)勢和局限性。目前室內定位研究的熱點方向是如何結合不同的技術實現高精度定位。
文獻[1]中提出的新方案是將行人航跡推算(PDR, Pedestrian Dead Reckoning)和Wi-Fi指紋技術結合起來。這種方案的主要優(yōu)勢在于,它只依賴于少部分建筑參數和智能手機中的加速度計、指南針和Wi-Fi卡。但隨著手機攜帶方式的改變,慣性傳感器定位系統很難從多個復雜的疊加運動中提取出完整、準確的運動軌跡。在文獻[2]中,利用檢測到的目標像素的變化率來說明PDR在未標定相機中的有效性,這有助于提高PDR的定位性能。Ashish Gupa和Alper Yilmaz的研究表明,使用視覺和慣性傳感器進行室內定位只需要在移動設備上安裝一個平面建筑信息模型(BIM, Building Information Modeling)和廉價的傳感器套件[3]。綜上所述,多源定位系統的定位性能得到了很大的提升。
基于視覺的定位和基于PDR的定位是兩種常用的室內定位方法。文獻[4]-文獻[7]中提出了許多室內定位系統,其共同優(yōu)點是成本低、能耗低。但智能手機相機受光照條件、圖像分辨率和相機自動對焦速度的影響[8],采集到的視覺圖像具有不穩(wěn)定性。ARCore是谷歌提出的AR增強現實項目。ARCore的區(qū)域學習功能可以讓智能手機尋找和記憶物理空間的關鍵特征,比如邊緣、角落等。ARCore有自己的參照系,提取目標特征的方法比其他基于視覺的定位系統更加精確。但在光照條件不足的情況下,其提取結果會有很大偏差。如果想要實現無論何種光照條件下都能達到精確定位的效果,就需要選擇其他室內定位技術來彌補這一不足。
如文獻[9]中所描述的,PDR是相對定位技術,即從已知的位置出發(fā),對行走距離和行走方向進行估計的技術,其對光照沒有任何要求。雖然PDR定位可以實現連續(xù)的位置跟蹤,但隨著行走距離和行走方向的改變,誤差累積是主要問題[10]。此外,在運動模式復雜的室內環(huán)境中,PDR定位系統需要進行不斷更新,這就給室內定位提出了更大的挑戰(zhàn)。
本研究提出了一種基于PDR的輔助視覺室內定位新算法,通過融合基于視覺的定位和基于PDR定位的優(yōu)勢,實現了高精度的定位,并且同時保證了定位的魯棒性。
2 系統描述
本文提出了一種基于視覺和慣性傳感器相融合的多源室內定位系統。系統框圖如圖1所示。基于ARCore的定位算法用于提供視覺定位測量。基于慣性的定位結果由智能手機內置的加速度計和陀螺儀進行計算。這兩個系統獨立工作。然后分別對定位結果的有效性進行評估,并采用松耦合的方法進行融合。
2.1 基于ARCore視覺定位算法
基于ARCore的視覺定位算法進行定位的過程是篩選、識別特征點、匹配特征點、濾除錯誤匹配、轉換坐標。在其運動跟蹤中,攝像機的加速度和運動方向由6軸慣性傳感器(加速度和陀螺儀)進行捕捉。然后將上述兩個傳感器的數據進行整合,通過區(qū)域學習來解決運動跟蹤中積累的誤差,從而實現三維運動跟蹤。基于ARCore的視覺定位算法提供的坐標位于一個自定義的虛擬框架中。為了與視覺定位的數據融合,PDR幀中的坐標在基于ARCore的視覺幀中的映射方法如下所示:
2.3 基于ARCore的視覺定位和基于PDR定位的
融合算法
基于ARCore的視覺定位在光照充足的大多數環(huán)境下都能進行精準的定位。但是當行人移動到光線較差、反光度較大的室內環(huán)境時,其定位精度會隨之變低。雖然PDR的定位結果必然會隨著時間的累積而產生誤差,進而影響定位精度,但慣性測量單元(IMU, Inertial Measurement Unit)在各點的估計誤差范圍是可靠的。因此本文將使用IMU來判斷基于ARCore的輸出點的有效性。如果輸出點在誤差范圍內,表明其輸出有效,否則輸出無效。誤差范圍ε的判定如圖3所示:
3 研究結果
通過現場實驗對所提出的融合算法性能進行了測試。實驗地點為黑龍江大學物理實驗樓七樓。測試軌跡持續(xù)時間約為15分鐘。本文利用校驗點表示地面真值,分析了該方法的定位誤差,并與傳統方法進行了比較。
3.1 基于ARCore視覺定位的結果
基于ARCore的視覺定位結果如圖4所示,其中紅點表示預設路徑中的檢查點,黑線為輸出的軌跡,藍線表示實驗樓七樓的墻面。
3.2 PDR定位結果
PDR的定位結果如圖5所示。PDR定位的軌跡在很多地方偏離了指定的區(qū)域。開始時,位移的偏移誤差很小,隨著時間的推移,誤差逐漸累積,導致圖5中的軌跡與預設路徑中的檢查點出現了很大的偏差。
3.3 融合定位系統的結果
圖6表明融合定位系統的輸出軌跡與單獨基于ARCore的視覺定位系統的輸出相似。但從圖6中可以看出,當室內環(huán)境中光照條件發(fā)生變化或行人前方墻體太白時,其輸出異常,與融合系統存在明顯的差異。
通過對以上定位系統輸出誤差的分析,比較了所有標記點輸出誤差的中位數、平均值、均方根和四分之三值,如表1所示。通過比較可以看出,PDR的定位精度低于基于ARCore的視覺定位的精度。
三種算法定位結果輸出的誤差積累分布如圖7所示,其中橫軸為定位誤差,用εd表示,單位為米,縱軸為誤差積累概率Pa。當Pa=1時,即誤差積累概率為100%時,對應的橫軸的值為本次實驗的最大定位誤差。當Pa=0時,即誤差積累概率為0時,對應的縱軸的值為本實驗的最小定位誤差。
實驗所得定位誤差εd和定位累計誤差εa隨定位時間t的變化情況分別如圖8(a)和圖8(b)所示。通過數據對比不難看出,基于PDR定位的精度遠低于基于ARCore的視覺定位和融合算法定位系統的精度。基于ARCore的視覺定位誤差與融合系統定位誤差在80%以內是相同的,但在光照條件不足的環(huán)境下,基于ARCore的視覺定位出現了較大的誤差,而融合定位系統的定位誤差相對穩(wěn)定。綜上所述,本文提出的融合定位算法大大提高了室內定位系統的定位精度。
4 結束語
本文提出了一種新型融合室內定位算法,將基于視覺的定位算法和基于慣性的定位算法融合在一個松散耦合的體系結構中,利用PDR的輸出值對基于ARCore的定位獲得的測量值進行分析與測試。如果基于ARCore的定位給出的步長可靠,則直接用于融合系統中,否則步長由倒立擺模型導出。卡爾曼濾波器用于航向融合。實驗結果表明,與傳統的室內定位系統相比,融合定位系統實現了更高精度的室內定位。
參考文獻:
[1] Wang B, Liu Xuelin, Yu Baoguo, et al. Pedestrian Dead Reckoning Based on Motion Mode Recognition Using a Smartphone[J]. Sensors, 2018,18(6):1811.
[2] Li Y, He Z, Nielsen J. Enhancing Wi-Fi based indoor pedestrian dead reckoning with security cameras[C]//Ubiquitous Positioning, Indoor Navigation and Location Based Services (UPINLBS), 2016 Fourth International Conference for IEEE. 2016: 107-112.
[3] Yilmaz A, Gupta A. Indoor positioning using visual and inertial sensors[J]. SENSORS, 2016: 1-3.
[4] 李華亮,錢志鴻,田洪亮. 基于核函數特征提取的室內定位算法研究[J]. 通信學報, 2017(1): 158-167.
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >