【摘 要】GPS信号对建筑物的穿透能力有限,无法满足人们室内定位精度的需求。为了弥补这一不足,通过对现有室内定位技术进行研究,对比分析各种技术在不同室内环境下的优缺点,提出了基于PDR辅助视觉室内定位的方法。首先对光照条件不足和误差累积对于定位精度的影响进行独立评价,然后综合考虑多种因素融合算法性能进行分析,并给出了复杂室内环境下应用该算法进行定位的可行性。最后通过实验证实了该算法的可靠性和鲁棒性。
【关键词】室内定位;视觉定位;PDR;融合算法
推荐阅读:《影像视觉》(月刊)创刊于1973年,由科学技术部和新闻出版署批准,国内外公开发行,全国感光材料信息站主办。
1 引言
由于室內环境复杂多变,人们对于室内位置服务的要求也越来越高。一系列的定位技术如Wi-Fi定位、蓝牙定位、惯性导航系统(INS, Inertial Navigation System)、基于视觉的定位等技术得到了研究人员的高度关注。然而,每种技术都有自己的优势和局限性。目前室内定位研究的热点方向是如何结合不同的技术实现高精度定位。
文献[1]中提出的新方案是将行人航迹推算(PDR, Pedestrian Dead Reckoning)和Wi-Fi指纹技术结合起来。这种方案的主要优势在于,它只依赖于少部分建筑参数和智能手机中的加速度计、指南针和Wi-Fi卡。但随着手机携带方式的改变,惯性传感器定位系统很难从多个复杂的叠加运动中提取出完整、准确的运动轨迹。在文献[2]中,利用检测到的目标像素的变化率来说明PDR在未标定相机中的有效性,这有助于提高PDR的定位性能。Ashish Gupa和Alper Yilmaz的研究表明,使用视觉和惯性传感器进行室内定位只需要在移动设备上安装一个平面建筑信息模型(BIM, Building Information Modeling)和廉价的传感器套件[3]。综上所述,多源定位系统的定位性能得到了很大的提升。
基于视觉的定位和基于PDR的定位是两种常用的室内定位方法。文献[4]-文献[7]中提出了许多室内定位系统,其共同优点是成本低、能耗低。但智能手机相机受光照条件、图像分辨率和相机自动对焦速度的影响[8],采集到的视觉图像具有不稳定性。ARCore是谷歌提出的AR增强现实项目。ARCore的区域学习功能可以让智能手机寻找和记忆物理空间的关键特征,比如边缘、角落等。ARCore有自己的参照系,提取目标特征的方法比其他基于视觉的定位系统更加精确。但在光照条件不足的情况下,其提取结果会有很大偏差。如果想要实现无论何种光照条件下都能达到精确定位的效果,就需要选择其他室内定位技术来弥补这一不足。
如文献[9]中所描述的,PDR是相对定位技术,即从已知的位置出发,对行走距离和行走方向进行估计的技术,其对光照没有任何要求。虽然PDR定位可以实现连续的位置跟踪,但随着行走距离和行走方向的改变,误差累积是主要问题[10]。此外,在运动模式复杂的室内环境中,PDR定位系统需要进行不断更新,这就给室内定位提出了更大的挑战。
本研究提出了一种基于PDR的辅助视觉室内定位新算法,通过融合基于视觉的定位和基于PDR定位的优势,实现了高精度的定位,并且同时保证了定位的鲁棒性。
2 系统描述
本文提出了一种基于视觉和惯性传感器相融合的多源室内定位系统。系统框图如图1所示。基于ARCore的定位算法用于提供视觉定位测量。基于惯性的定位结果由智能手机内置的加速度计和陀螺仪进行计算。这两个系统独立工作。然后分别对定位结果的有效性进行评估,并采用松耦合的方法进行融合。
2.1 基于ARCore视觉定位算法
基于ARCore的视觉定位算法进行定位的过程是筛选、识别特征点、匹配特征点、滤除错误匹配、转换坐标。在其运动跟踪中,摄像机的加速度和运动方向由6轴惯性传感器(加速度和陀螺仪)进行捕捉。然后将上述两个传感器的数据进行整合,通过区域学习来解决运动跟踪中积累的误差,从而实现三维运动跟踪。基于ARCore的视觉定位算法提供的坐标位于一个自定义的虚拟框架中。为了与视觉定位的数据融合,PDR帧中的坐标在基于ARCore的视觉帧中的映射方法如下所示:
2.3 基于ARCore的视觉定位和基于PDR定位的
融合算法
基于ARCore的视觉定位在光照充足的大多数环境下都能进行精准的定位。但是当行人移动到光线较差、反光度较大的室内环境时,其定位精度会随之变低。虽然PDR的定位结果必然会随着时间的累积而产生误差,进而影响定位精度,但惯性测量单元(IMU, Inertial Measurement Unit)在各点的估计误差范围是可靠的。因此本文将使用IMU来判断基于ARCore的输出点的有效性。如果输出点在误差范围内,表明其输出有效,否则输出无效。误差范围ε的判定如图3所示:
3 研究结果
通过现场实验对所提出的融合算法性能进行了测试。实验地点为黑龙江大学物理实验楼七楼。测试轨迹持续时间约为15分钟。本文利用校验点表示地面真值,分析了该方法的定位误差,并与传统方法进行了比较。
3.1 基于ARCore视觉定位的结果
基于ARCore的视觉定位结果如图4所示,其中红点表示预设路径中的检查点,黑线为输出的轨迹,蓝线表示实验楼七楼的墙面。
3.2 PDR定位结果
PDR的定位结果如图5所示。PDR定位的轨迹在很多地方偏离了指定的区域。开始时,位移的偏移误差很小,随着时间的推移,误差逐渐累积,导致图5中的轨迹与预设路径中的检查点出现了很大的偏差。
3.3 融合定位系统的结果
图6表明融合定位系统的输出轨迹与单独基于ARCore的视觉定位系统的输出相似。但从图6中可以看出,当室内环境中光照条件发生变化或行人前方墙体太白时,其输出异常,与融合系统存在明显的差异。
通过对以上定位系统输出误差的分析,比较了所有标记点输出误差的中位数、平均值、均方根和四分之三值,如表1所示。通过比较可以看出,PDR的定位精度低于基于ARCore的视觉定位的精度。
三种算法定位结果输出的误差积累分布如图7所示,其中横轴为定位误差,用εd表示,单位为米,纵轴为误差积累概率Pa。当Pa=1时,即误差积累概率为100%时,对应的横轴的值为本次实验的最大定位误差。当Pa=0时,即误差积累概率为0时,对应的纵轴的值为本实验的最小定位误差。
实验所得定位误差εd和定位累计误差εa随定位时间t的变化情况分别如图8(a)和图8(b)所示。通过数据对比不难看出,基于PDR定位的精度远低于基于ARCore的视觉定位和融合算法定位系统的精度。基于ARCore的视觉定位误差与融合系统定位误差在80%以内是相同的,但在光照條件不足的环境下,基于ARCore的视觉定位出现了较大的误差,而融合定位系统的定位误差相对稳定。综上所述,本文提出的融合定位算法大大提高了室内定位系统的定位精度。
4 结束语
本文提出了一种新型融合室内定位算法,将基于视觉的定位算法和基于惯性的定位算法融合在一个松散耦合的体系结构中,利用PDR的输出值对基于ARCore的定位获得的测量值进行分析与测试。如果基于ARCore的定位给出的步长可靠,则直接用于融合系统中,否则步长由倒立摆模型导出。卡尔曼滤波器用于航向融合。实验结果表明,与传统的室内定位系统相比,融合定位系统实现了更高精度的室内定位。
参考文献:
[1] Wang B, Liu Xuelin, Yu Baoguo, et al. Pedestrian Dead Reckoning Based on Motion Mode Recognition Using a Smartphone[J]. Sensors, 2018,18(6):1811.
[2] Li Y, He Z, Nielsen J. Enhancing Wi-Fi based indoor pedestrian dead reckoning with security cameras[C]//Ubiquitous Positioning, Indoor Navigation and Location Based Services (UPINLBS), 2016 Fourth International Conference for IEEE. 2016: 107-112.
[3] Yilmaz A, Gupta A. Indoor positioning using visual and inertial sensors[J]. SENSORS, 2016: 1-3.
[4] 李华亮,钱志鸿,田洪亮. 基于核函数特征提取的室内定位算法研究[J]. 通信学报, 2017(1): 158-167.
论文指导 >
SCI期刊推荐 >
论文常见问题 >
SCI常见问题 >