您好,欢迎来到尚车旅游网。
搜索
您的当前位置:首页基于激光与RGBD相机的异构多机器人协作定位

基于激光与RGBD相机的异构多机器人协作定位

来源:尚车旅游网
第47卷第1期2019年2月

JOURNALOFZHEJIANGUNIVERSITYOFTECHNOLOGY

浙江工业大学学报

Vol.47No.1

Feb.2019

基于激光与RGBGD相机的异构多机器人协作定位

()浙江工业大学,信息工程学院,浙江杭州310023

张文安,梁先鹏,仇 翔,邢科新

摘要:针对异构多机器人定位问题,提出了一种基于激光与视觉融合的协作定位方法,克服了视觉传感器受环境影响大、测量误差大的缺点,也克服了激光传感器无法识别待测目标的缺点.通过建立移动机器人的运动模型,根据不同传感器的原理分别建立RGBGD相机观测模型与激光观测模型.将R得到位置估计值与方差.通过激光GBGD相机观测模型与运动学模型组成局部估计器,传感器的观测模型与运动模型组成另一个估计器,得出另一组估计值与方差.运用协方差交叉融合方法进一步融合二组数据,提高了系统的可靠性与准确性.使用两台D一台FROBOT机器人,装备里程计、另一台装配里程计,搭建了实验平台,验证了所提方法可行,误差RGBGD相机与激光,范围小,满足实际应用.

关键词:激光;视觉;异构机器人;协作定位;CI融合中图分类号:TP242     文献标志码:A

()文章编号:1006G4303201901G0063G07

CollaborativelocalizationofheteroeneousmultiGrobotsg

basedonlasersensorandRGBGDcamera

(,,H)ColleeofInformationEnineerinZheianniversitfTechnoloanzhou310023,ChinagggjgUyogyg

,,,ZHANGWenanLIANGXianenOIUXianXINKexinpgg

Itcanovercomethedefectsofenvironmentalimactandthesinificantmeasurementerrorofthepg

,visionsensorandavoidtheshortcominsofthelasersensorwhichmaotbeabletodetectthegyn

robots.AcollaborativelocalizationsstembasedonlasersensorandRGBGDcameraisdesined.yg

:TAbstracthispaerinvestiatesthecollaborativelocalizationproblemofheteroeneousmultiGpgg

,taretinsomenonGidealenvironment.Firstlthemotionandtheobservationmodelsofthegy

,mobilerobotareestablished.AccordinotheprincileofthesensorstheobservationmodelofgtptheRGBGDcameraandthatofthelasersensorareestablishedresectivel.AlocalestimatorpywhichisconstructedusintheobservationmodelofRGBGDcameraandthemotionmodelobtainsg

,theestimatesanditsestimationerrorvariances.Thenanotherestimatorisconstructedbheyt),wintersection(CIfusionmethodisusedtofusethetwosetsoflocalestimateshichimrovesp

,thereliabilitndaccuracftherobotlocalizationsstem.Finallanexerimentallatformisyayoyypp,aobservationmodelofthelaserandmotionmodelndanothersetoftheestimatesandthe

,tvariancesareobtained.Inordertoobtaintheglobalotimalestimationhecovariancep

,,desinedbsinwoDFROBOTrobotsoneeuiedodometeroneRGBGDcameraandlasergyugtqpp

,sensorandtheeffectivenessoftheproosedmethodisverifiedinthedesinedplatform.pg:;;;;KewordslasersensorvisionsensorheteroeneousmultiGrobotscollaborativelocalizationCIfusiongy

收稿日期:2017G12G05

)基金项目:国家自然科学基金资助项目(61573319

.wazhan@zut.edu.cngj

,:作者简介:张文安(男,浙江洞头人,教授,博士,研究方向为多传感器信息融合及其在移动机器人自主导航中的应用,1982—)EGmail

􀅰64􀅰

浙江工业大学学报

第47卷

(,相对距离与相对方位)通过彼此之间的信息交互,使装备低精度定位设备的机器人提高定位精度.当某机器人由于自身传感器故障导致自身定位失效时,协同定位可以在一定程度上恢复其定位能力.在多机器人协同工作的实际场景中,考虑经济成本,不可能为每台机器人都配备高精度的定位传感器.通过给部分机器人安装高精度传感器,使用协同定位方法可以提高机器人平台整体的定位精度.因此  多机器人协同定位是利用系统中某些机器人的

高精度定位,精确的导航能力,和引入相对观测量

性强,实时性高,克服了计算复杂的互协方差的缺点.最后搭建了实验平台并在该平台上验证了所提出算法的可行性与优越性.

1 问题描述与建模

1.1 系统描述

所考虑的异构机器人协作定位系统如图1所示,其中的机器人i配备了高精度里程计,以及外部传感器激光雷达和RGBGD相机.机器人j只配备研究多机器人协同定位具有重要的理论价值与实际

意义[1G2]

用的方法.:目前的都是同构系统1)同构分,对于多机器人协同定位技术研究常

,要求是相同的传感器布式协同定位,这,些每个机器人方法使用各自处理自己所观测的信息,这样可以充分地利用各个机器人的观测信息.提高整个平台的精度.

滤波oum(eEliKotFis等[3]

提出了一种分布式的扩展卡尔曼

)形式[4G5]

,Hae等[6]提出的容错协同定位也是使用扩展卡尔曼的形式g

,这些文献都使用这种方法.但是这种方法需要实时更新每一个机器人的观测信息,计算量增大,计算复杂度高.集中式协同定位,将所有机器人的信息同一集中处2)异构理,可以快速地处理信息,去除冗余的信息.如Wanasinhe等[7]

提出的异构机器人系统的分布式协同定位使用的是异构集中式定位方法g

.这种方法

虽然计算快,实现简单,但是一旦系统崩溃,很难恢

复,鲁棒性较差.所以针对这种问题,蒋荣欣等[

8G9]

使用多传感器融合方式进行协同定位.利用多传感器融合技术弥补由于单个传感器问题导致的系统崩

溃问题.传统的融合方法如联邦滤波的方式[10]信

息分配系数是固定值,实际中各子系统的定位精度每时每刻都不同,导致整个系统的精度下降.分布

式矩阵加权的方式[11]要计算各个子系统之间的互

协方差,计算复杂,实时性较差.

针对上面研究存在的问题,提出了一种激光与传感器精度不高的缺点GBGD相机融合的多传感器异构定位系统,

克服单.首先建立移动机器人运动模型,再根据移动机器人配置的传感器,结合不同传感器的测量原理分别建立了与激光传感器观测模型,得到RG系BG统D相机观测模型状态观测方程.

由于移动机器人运动模型是高度非线性模型,而传统的EKF线性化处理导致非线性误差较大,采用无迹卡尔曼滤波器获得局部估计值.为了处理多传感

器数据,使用协方差交叉融合方法([12G合不需要计算各子系统的互协方差,C计算量小I)15]

,C,I融

鲁棒

低精度里程计.当机器人i与机器人j同时运动时,为了使低精度定位能力的机器人j提高定位精度,机器人i通过,协同机器人RGBGD相机、激光雷达获取机器人j的位置信息j获取更高精度的定位信息.针对该问题,提出了激光与视觉融合的异构多机器人协作定位方法.

当前采样时刻,机器人j利用自身的里程计信息与机器人运动模型估计出自身的位置信息.机器人i先利用相对方位角RGBGD相机获取机器人j与机器人i的相对距离、,通过RGBGD观测模型与机

器人1j的运动模型组成组关于机器人j的位R姿G估BG计D局部估计器,

得出第与估计方差,如图中灰色三角与虚线椭圆所示,再通过激光雷达获取1机器人j与机器人i的相对距离、相对方位角.通过激光观察模型与机器人j的运动模型组成激光局

部估计器,得出第如图1中灰色三角与实线椭圆所示2组关于机器人j的位姿估计与估计方差,.由于噪声的影响,两组估计都不准确.为了获得更高精度的位姿估计,将两组位姿估计值进行二次融合,如图1虚线三角所示,从而得到精度更高的机器人

j的位姿估计.为了实现异构多机器人协作定位方

法需要建立机器人的运动模型,并且针对不同传感器特性建立各自的观测模型.

图1 异构多机器人协作定位框架图

Fig.1 Frameworkofcoop

erativelocalizationforhetGerog

eneousmultirobotsRR第1期张文安,等:基于激光与RGBGD相机的异构多机器人协作定位

􀅰65􀅰

1.2 机器人运动模型

考虑两轮差速轮式移动机器人,假设机器人的质地均匀,质心为几何中心点,且机器人运动过程中图2中:R为车体运动的圆弧半径;Δx,ΔΔθ分别y,化量.当走直线或采样时间足够短时,里程计通过记录左右轮的转动里程,得到移动机器人的角速度与速度.

.左右过程中左右两轮与地面纯滚动无滑动(图2)为单位时间Δ纵坐标和方位角的变t内车体位置横、

与估计方差pj.由于两个算法都使用了共同的运

动模型的预测信息,两个局部滤波器的互协方差不为零.互协方差计算复杂,应用CI融合来融合多传

T[xθyj,j,j].

感器信息,得到机器人j位姿全局最优的位姿估计

图2 运动模型

Fig

.2 Motionmodel定义移动机器人的位姿为Xk=时刻移动机器人的横坐标、

纵坐标[xk和航,yk向,θk角]T

为.如图2所示,状态方程[16

]可描述为

X(k+1ìx)=f(Xx(k),uL(kco)s)f(X(k),u(k))=ïï

k+1=k+Δí(θ/()1

)ïyk+1=yk+ΔLsinîθ(k+Δθθk+Δθ/22)k+1=θk+Δ

θ式中:u(k)=[v(k),w(k)]T,其中v(k)=ΔL=(ΔS(2

)l+

Sr)/2,w(k)=Δ人θ在=k(Δ时Sl-ΔSr刻的左右)/d轮,里而程ΔSl计,的ΔSr分别为移动机器变化值,d为2轮轴距.

 协作定位方法

如图别到机器人3所示,在当前采样时刻,j的位置并且获取机器人RjGB与机器人GD相机识

i的相对距离与方位角信息[ρij的运动模型得到预测的位姿信,βij息]T

[x′.再从机器人jjRGBGD局部估计器1得到第1组对,y′j机器,θ′j人,

]T

使用j位姿

的估计值[x1j1根据里程计提供的大致方位上去遍历找到测量值,yj,θ1j]T与方差p1

j.同时,激光雷达.

再结合机器人j的运动模型的预测信息,使用激光

局部估计器2得到第2组位姿估计值[x2j,y2j,θ2j]

T

图3 协同定位算法框架

Fig.3 Frameworkofcooperativelocationalg

orithm.1 基于RGBGD相机的局部估计器1.1.1使用 RGRBGGBD相机传感器模型

度信息,从而求得空间中某点的坐标GD相机的红外相机可以获得场景的深

,如图4所示.

图4 RGBGD测距原理

Fig.4 RGBGDcamerameasuringprincip

le以系,取红外相机RGBGD红外相机中心为坐标原点建立坐标

指向红外发射的方向为X轴,Z轴垂直于图像平面,当物体恰好位于参考平面时,记录下它的散斑图案.当物体位于平面时,它的散斑图像在X轴上产生一个视差,通过三角形相似原理可知表达式为

Db=Z1Z-Z2

(3

)fd=ZD2

(4

)式中:Z2为物体在物理平面的深度值;b为基线长度;f为红外相机的焦距;D为物体在物理平面的位移;d为散斑图案在图像平面的视差.由式(3,4)

22kΔ2􀅰66􀅰

浙江工业大学学报

第47卷

可得

Z1

()Z52=

Zd1

1+

bf式中:Zb通过校准得到.场景中某点的深度值1,f,

和相机的焦距f共同决定了该点的成像度,可得出X和Y轴的坐标为

Z1

X=-(x-x0)

f()6

)为其预测协方差和估计协方差.k+1

算法1 RGBGD相机局部估计器

步骤1 状态预测.其表达式为

11

(,(X(k)=[xk|k)xk|k)+11((]xk|k)-(n+λ)Pk|k),)Xk+1|k)=f(X(k)u(k)j(

1((,n+λ)Pk|k)􀭺1(Xk+1|k)=

2nZ1

()Y=-(70)y-yfj=0

1c1􀭺())()]Pk+1kXk+1kXk+1k|=∑Wj[|-|×j(

∑W2nmj)Xj(k+1|k)(13

()11()12

式中:x,y分别为该点在图像坐标系上的坐标;

x0,0分别为图像坐标系的原点坐标.RGBxGD0,y0可以通过上述原理求出(x0为原点的局部坐标)

,如图ρ5所示可得,y0是以ijβij1=c=osX2+Y2(8)-1æçXöèρ÷ijø-π(9)所以局部估计器在k+1时刻对机器人2j的量测信息为

Z{

(x(k+1)=2[ρij,βij]T

ρ=ij2

β=jij=tan-1

-[(xiy)+(yj-yi)/j(x-yi)j-xi)]-θi(10

)图5 RGBGD观测模型

Fi.5 TheobservationmodelofRGBGDc.1.2U Rg

ameraKFG滤BG波D局部估计器设计

方法是一种基于递归式贝ransform叶)变斯换估的计非方线法性.滤相波比方于法U.TU(KUnscented

i矩阵并且估计精度和E收KF是一种敛F速,U度KF不必

计算Jacob都得到了提高,也更容易实现.

将机器人j运动模型与RGBGD相机观测模型相结合组成局部估计器1.采用UKF算法得到移

动机器人j的目标状态的局部估计.假设移动机器

人)j的初始状态为,􀭺x1X1(k+1|k+1(和P1(.􀭺X1(的状态预测值和估)

分别为0|0)k+1时刻局部估计器0|0)k+1|

计值.P1(k+1|k),P1

(k+11|

X[Xjkj=

0+1k式中:(

|jk+1|kWc(

)为)-X􀭺1k|(k+1|kk))]T+Qx1

(生成的第j个sig(1m4

a)点;jWjm分别为预计值均值与其协方差的权重系数;u(k,)=[v(kk),w时刻机器人(k]T

为k时刻由里程计实时采集信息计算出)

j的速度与角速度.

步骤2 量测更新.其表达式为

Zj􀭺(k+1|k)=H(Xjk+1|k(Z(k+1|k2n(

))􀭺)=

(15)X16)1

(k+1|k+1j∑)==0

WjmZj􀭺(

k+1|k)P1(k+1|k(X1(k+1|kKZ+(k+)11)-1

(􀭺Z(k+1|k)

))+

(x(k+1|k+=1P)k+1|k=X(k+1)|-kK+PZ1(1178

))P1k+1(k+1|k+1)ZKT1􀭺1()式中􀭺|k)

)=P1(k+1|k+1Z(为量测预测值K=P.)(1290

)XZPZ-Z1

滤波增益为2n(21)PZZ=

[Zi∑=0

Wcj[Zj(

k+1|k)-􀭺Z(k+1|k)]×jk+1|k2n(

)-􀭺Z(k+1|k)]T+R(22

)PXZ=

i∑[=Z0

Wcj[Xj(

k+1|k)-􀭺X1(k+1|k)]×jk+D1|k根据RG(

BG测距原理将)-􀭺Z(k+1|kk+1时刻机器人)]T(i23的

)位置[x中得到k(k+1+1时刻的量测信息)i,y(

k+1)i]T代入Z(k+R1GBGD观测模型2.2 2

)=[ρij,βijT

基于激光传感器的局部估计器].2.2.1如图 激光传感器模型

极坐标系统6所示,由于激光传感器坐标系的形式为,采集的数据用T=n},其中ρiρi为激光测量的长度值,i{为每束激光的数,i|i=1,2,􀆺,据集的下标.

图6中θi为返回激光测量值的角度值,θi=

iΔθ,ρij=ρi,βij=θi-π,所以局部估计器2在k+1时刻对机器人j的量测信息为

y2tk第1期张文安,等:基于激光与RGBGD相机的异构多机器人协作定位

􀅰67􀅰

)在k+1时刻得到机器人i的位置[1x(k+

T

))1k+1i,i].y(

-1􀭵)通过α[(/2tank+1|k)k+1)ii-i)y(y(j=(],计算出机器人j相对于x(k+1|k)x(k+1)i-i)

机器人i的大致方位.

􀭰􀭺ρ)选取α3i|i=ii,j周围多束激光的数据集合T={

量测信息通过下面方式进行更新:

图6 激光测量模型Fi.6 Lasermeasurementmodelg

􀭰􀭵(/)},αΔθ±ΔσΔσ表示以αiijj为中心的偏移量.

􀭿进行排序,)对选取的激光数据集合T删除最4

远与最近的激光数据,选取中间数据记作(center,ρZ(k+1)ρβj{

]ρ=[ij,iT

=ij=i.2.2 βj激光局部估计器设计

=tan(xj-1

-[(xiy)2+(yj-yi)/j(x-yij-x)2

i)]-θi(24)将机器人j运动模型与激光观测模型相结合构

成局部估计器人j的目标状态的局部估计2,使用UKF算法得到关于移动机器

.假设移动机器人j初始状态x2+1

)分别为(0|k0)+和P21时刻局部估计器(0|0),􀭺X2(k+1|k),􀭺X2(k+1|

和估计值,P2方差和估计协方差(k+1|k.),P2(k+1|k+2的状态预测值1基于激光传感器的局部估计器)

为其预测协设计由如下算法给出.

算法2 激光局部估计器步骤1 状态预测.其表达式为

X(n+λ)P2((kk|)=[x2k|kk),x2

((k|k)xk|k),2

((n+)λ+

)P2

(k|kX()2]j􀭺(

k+1|k)=∑f2n(X(k),u(k))(5

)X2(k+1|k)=

WjmXj(26

)k+1|k)(27

)2

(k+1|

k)=2nj=0

)]Xjj(

|)-Xk+1|×[j(k+1|∑=k0

Wcj)[Xk+1k􀭺􀭺2(-X2(k+1|k量测更新.其表达式为

)]T+Q步骤2 (

28)Zj(k+1|k)=H(Xjk+1|k()Z(k+12n(

))|k)=

j∑=0

WjmZj(

k+1|k)(29􀭺K=PXZPZ-Z1

X2(k+1|k+1(330)1)KP2(k+1|k(Z+(k+11)=P))-=2

(􀭺Z􀭺X2k((k+1|kk+1|k+1|k)

))+

(x2(3323

))P(式中:Z(k+1|k+1k+1|k+1))==􀭺X2P1((k+1)|-kK+PZ11k+1|k+1)ZKT)((3345

))jk+1|k量原理不同()=H(Xjk+1|k,计算的方法也不同(.)激光观测模型的

)因传感器的测centercenter5)

.6,β))(k得到+1)[ρ(k+1)ij,(k+1)ijT

其中ρ(k+1)iij=icenterΔθβ-π/2.],j=k将所得到的+1量测信息Z(k+1)=[ρij+,βij以及将时刻机器人i的位置信息[xT(k1)]T

iyk+1,

2(

.3 全局融合算法

)i]代入激光观测模中.得到两个局部估计之后,将两个局部估计值进一步融合.由于受到共同的过程噪声影响,两个局部估计结果是相关的,而各局部估计间的互协方差计算复杂,考虑到移动机器人的实时性要求高的特点,采用CI融合算法得到更精确的估计.基于激光传感器与PCI(kR+Gx(11B|G-kD相机的全局估计器设计算法为

ω+)1P)=([ωP1(k+1k+1|k+1)-1

CI1(kI)|k+12-1]-1

(35

))+1×|xk+(1k)=PC(k+1|k+1)[ωP1(k+1|k+-1121+)1|k+11x2(k)++1|(1k-+ω1)式中:x1)P](k+1|k+

-(36

)PR2

G(kBG+D相机局部估计器算法得到(k+1|k+1),P1

(k+1|k+1;x21|k+1

(k+)

分1|k别+通1过)

,使用黄金分割)分别通过激光局部估计器算法得到法[17

]等方法快速求最小值点.01.)5,4与估计的方差阵25.得到机器人ω=

j最优估计位姿为xCI

k+1|k+1

(k+1|kPC().+I

3 实 验

3.1 实验硬件与环境

本实验使用的是两台2台DFROBOT如图7所示.为机器DF人ROiB装T都装备里程计,其中一台,备RGBGD相机;型号为华DF硕ROp

XBOT的激光雷rolive,装备型号为达;使用的系HO统K环U境YO是URGG04LXGUtiGo0n1G用相机的驱动indigo版本的[8G19]

库op

eRnONS系统1I.为了能够,uobp

untu14.04有en良cv3好的.0人,深,

采机度交2iρkPk􀅰68􀅰

浙江工业大学学报

第47卷

互,将R编写上位机程序,OS与QT5.7结合使用,直观的实时体现机器人的位姿信息.

题,提取激光量测信息.最后使用所提方法估计出机器人j的位姿,并在上位机上实时显示.

图7 DFROBOT机器人图8 标志物检测与选定

Fi.8 Detectionandselectionofsinsgg

/M1Seed的左轮线速度、M2Seed右轮线速度的pp

节点信息.然后为了方便识别目标机器人j,在机器人j尾部安置1个绿色矩形标志物.通过图像处

,理检测出绿色标志物(图8)提取RGBGD量测信_n息.接着订阅激光节点/hokuoode的/scan话y

,接受R利用ROS发布的其他节点信息)OS订阅/

首先建立1个名为/用于Robot的ROS节点(

Fi.7 DFROBOTg

3.2 实验场景与结果

实验选择为空旷的室内环境,两台DFROBOT都按照指定的轨迹进行移动,两个移动机器人移动/,速度均≤2机器人j从坐标(开始00mms0,-1)开始,跟踪并观测机器人j进行实验.实验-1.5)

对比如图9所示.

做半径为1.机器人i从坐标(2m的圆周运动;-1,

图9 实验结果

)为融合估计与R  图9(aGBGD估计器估计轨

迹,RGBGD滤波器估计轨迹一直在真实轨迹周围.说明R没有丢失目GBGD相机识别出了机器人j,标.因为受到光照强度的影响,在提取机器人j尾部标志物中心点时数据不稳定,容易跳变,所以导致

Fi.9 Exerimentalresultsgp

了R轨迹波动明显.GBGD滤波器估计值方差大,而融合后的轨迹方差比RGBGD滤波器的估计方差要小,融合后轨迹更加贴合真实轨迹.

()图9为融合估计与激光估计器估计轨迹,虽b

然激光雷达没有大的数据跳变,但是激光只能测量

第1期张文安,等:基于激光与RGBGD相机的异构多机器人协作定位

􀅰69􀅰

到机器人的边框.因为需要定位的是机器人的几何中心点,机器人本身宽2所以无法准确地定位8cm,雷达精度比视觉高,所估计的轨迹波动不大.融合后的轨迹比激光滤波器估计的轨迹更加贴近真实轨迹,很好地结合了两个子滤波器的优点,抑制了其缺点.

()图9为R激光滤波器与融合cGBGD滤波器、到目标中心,从而导致了定位结果有一定的偏差.

[]6 HAGEJA,NAJJARMEBE,POMORSKID.FaulttolerG

ceedinsoftheMediterraneanConferenceonControlandAuGg907G913.

//antcollaborativelocalizationformultiGrobotsstem[C]ProGy

,:tomationMed.AthensGreeceControl&Automation,2016:[],7 WANASINGHETR,MANNGKIGOSINERG.DistribG

//sstem[C]ElectricalandComuterEnineerin.UIUC,IlGypgg

utedcollaborativelocalizationforaheteroeneousmultiGrobotg

误差最大E(激光滤波器RMS)=0.3916m,

估计的RMS均方根误差.RGBGD滤波器的均方根

[]田翔,谢立,等.一种多机器人编队协同定位的方法8 蒋荣欣,[]():哈尔滨工业大学学报,J.2010,421152G157.

,UlinoisSA:IEEE,2014:1G6.

后的(RMES()R=M0S.1)9=63m0.1781m,运用全局融合算法.

(CI)计算 结 论

提出的基于激光与人协作定位方法达到了精确定位的目的RGBGD相机的异构多机器

,验证了算法的可行性.融合视觉与激光传感器,获得了视觉提取目标容易的优点,又抑制了视觉收到光照等环境影响导致的估计方差过大的缺点,同时拥有激光估计器的方差小的特点,克服了激光识别目标困难以及无法定位到机器人几何中心的缺点.全局融合

(保证定位精度的同时还提高了系统的实时性CI

)算法比其他的融合方法计算简单,实现容易.,在参考文献:

[1] 俞立,唐俊淮,统SLAM算法[J].浙江工业大学学报.一种基于观测范围约束的改进,2014,42(5):566G571E.

KFG[2] TsimAuOltaTn,eoHUuANGYL,YUANJ,etal.MultiGrobotactive

[3] RcorcaOrlizUMectioatioEnaslnL[IJOpp]Tro.IocISSaaclihzaEEEtI[Jti,]oB.nERKoabnEodYGt,2m0a1pA.2pi,n2gD5is(t3bari)sb:e5d34oG5n43co.operativeiuctsedm&auluttiorombaottioln

oG

[4] 2郭海锋014,18,(方良君5):781,G俞立795.

ransactionsonrobot,测方法[J].浙江工业大学学报.基于模糊卡尔曼滤波的短时交通流量预,[5] MARTINELLIA,PONTF,SI2E01GWA3,41R(2TR.M):218G2u2lt1iG.

robotloG

Icalizationusingrelativeobservations[C]//Proceeding

sofBEaErcEIelonntaer,nSap

tiaoinna:lCIEoEnEfe,2re0n0c6eo:27n97RG2o8b0ot2ic.sandAutomation.[9] 许坤,邹杰,陈谋光与控制,2016(9.基于联邦滤波的室内移动机器人定位[):77G83.

J].电[10] 邱恺,吴训忠,张宗麟,等[J].控制理论与应用,200.全局最优联邦滤波器信息分配原则[11] Y7,24(1):39G45.teAdfNuGXsion,eZstHimAatNioGnfWorAse,nYsoUrnLe,twetoraklG.MbaseuldtitGarrateedttirsatcribuG

[12] [王雪梅J].IEE,

Es刘ensor,s邓自立journa,l,等2016,16(5):1233G1242g.king系统改进的鲁棒协方差交叉融合稳态.带不确定协方差线性相关白噪声制与决策,[13] 王硕,宋申民201():Kalman估值器[J].控,6,史小平3110,等1叉融合姿态估计[J].控制与决策.7噪声特性未知的多传感器协方差交49G1756.

,[14] LAZARUSSB,ASHOKARAJI20,1T6S(2O)U:2R7D3GO2S78A.

Robotlocalisationandmappingusingdatafusionviai,nettaegrlaG.

ttiioanoyfkcovariancepi[ntersectionandginsoterfCvaloanntarloylCsisofnofreraenpcaerGKolsl,Gnreoewcne:mIEaEEC,2]0/1/5Pr:9o0ce8Ge9di1n9.

.[15] 邓自立信息融合估计理论及其应用[北京:科学出版社2012.

.M].

,[16] H`

zatOWAionfoRrmDAob,ilMAeroTbAotRIteCamMJs:,adSUisKtriHbAutTedMEMLGSEa.pLorcoaalciG

h[17] [李占利J].Spri2012.

.n最优化理论与方法gerberlinheidelbe[rMg

,]2.0():p北京03,5:中国矿业大学出版社3146G155.,[18] RROOMASopNeOJnGsouMrc,eBaRuIdNioDZreAJPco,KUCHENBECKERKJ.

srooubnotdds,2et0e1c3ti,o3n4t(o3o)ls:2f0o7rG2ro1b5o.

tgpnriozgerra:mRmiOnAgR[J]e.nAvuirtoonnommenotuasl[19] BanoLAKEH,JACOBR,FRIEDMANDW,etal.RavenGII

:transpaecntiopnlsatofnbormioGfmorsedicuarlg

iecnaglrineoebroitnigcsr,20e1s3e,a6r0ch(4[)J:9]5.4IE.EE(责任编辑:刘 岩)

E4

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- sceh.cn 版权所有 湘ICP备2023017654号-4

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务