如果您无法下载资料,请参考说明:
1、部分资料下载需要金币,请确保您的账户上有足够的金币
2、已购买过的文档,再次下载不重复扣费
3、资料包下载后请先用软件解压,在使用对应软件打开
计算机系统应用2009年第10期基于多传感器的移动机器人避障①ObstacleAvoidanceofMobileRobotBasedonMulti—Sensors杨东勇徐克立(浙江工业大学软件学院浙江杭州310023)摘要:提出了一种视觉传感器和红外线测距传感器相结合来实现移动机器人在不确定环境中自主避障的方.法。首先对视觉传感器采集的图像使用光流法提取障碍物信息,再结合红外线测距传感器反馈的距离信息,然后通过避障策略实现移动机器人的避障。实验结果验证了该避障方法的良好性能。关键词:移动机器人多传感器光流法红外线测距避障策略1概述看作带有灰度的像素点在图像平面运动产生的瞬时速移动机器人在特定环境里的避障问题已经得到了度场。较好的解决,但是在不确定环境中的避障问题,仍然假设图像上某一点(x,y)在t时刻的灰度值为是移动机器人领域的一大难题。f(x,Y,t)。则光流约束方程f6】可以表示为:单纯的依靠视觉传感器的移动机器人避障方法【1.2】,afou+⋯探测范围比较广,但若利用单目视觉则由于只能获取二维aVat~(’1)的图像信息,无法提取障碍物的深度信息。若利用双目视觉,则计算繁杂,实时性差【3】。其中,u=dx/dt,v=dy/dt。u和V分别为图像点在单纯的依靠测距传感器的移动机器人避障方X和Y方向的移动速度,(u,v)即该点的光流。为了求法【4.sl,探测范围十分有限,很难只凭测距传感器解光流(u,v)需要其他的约束方程以联立求解。本文中对避障路径进行优化。利用最小二乘法估计光流。记:本文把单目视觉和红外线测距传感器相结合,利=/,,=/,=/a,在实际中fx,fv,ft用了两者的优点,更好地完成移动机器人的避障。首可用沿时间方向的一阶差分平均值来估计。先是采用光流法对获取的图像序列信息进行处理,得在连续两幅图像f(x,Y,t)和f(x,Y,t+1)上取具有相到机器人前方障碍物的信息,然后结合红外线测距传同u和v的同一个目标上的N个不同位置的像素,以,,感器反馈的障碍物距离信息,使用避障策略来实现移’分别表示在第k个位置对ft,fx,fv的估计(k=1,2,⋯,动机器人的避障。此方法比仅仅依靠视觉传感器或者N),记仅仅依靠测距传感器的方法性能都要高。.。’’2光流法获取障碍物信息/==,=i(2)场景中景物的运动会导致运动期间所获得的图像中景物处在不同的相对位置,这种位置上的差别称为视差,它对应景物运动反映在图像上的位移矢量。如则对u和V的最/J\-乘估计为果用视差除以时差,就得到速度矢量。图像中的所有v】=(Fr,)(3)速度矢量构成一个矢量场,也称为光流场。光流可以对计算得到的光流(u,V),采用了光流平衡的障碍①基金项目:浙江工业大学一松下电器产业株式会社合作项目(2005[020])收稿时间:2009—02—17164应用技术Applied~chnique2009年第10期计算机系统应用物检测策略⋯来确定机器人前方的障碍物信息。由于机器人前方近处的物体和远处的物体相比,随着机器人(摄像机)的前行,其反应在图像上灰度变化更大,即产生的光流更大。因此可以分别计算机器人前方左右两侧各像素点的光流矢量模的和,等价于计算左右两侧光流矢量模的和之差:障碍物距离,mrn图1输入隶属函数图(4)其中△(FL—FR)是左右光流差,∑I广叫I是机器人前方某一侧的光流矢量模的和。当△(FL—FR)O,左侧障碍物.比较密集:当△(FL—FR)<O,右侧障碍物比较密集。_45.3O.150l53O45角度,o3避障策略图2输出隶属函数图避障策略的输入为红外线测距传感器反馈回的障碍物距离,通过避障规则表输出为移动机器人的行为和红外线测距传感器获得的结果给出的,如表1所示。(前进或旋转)。其中避障规则表中的部分规则要根据上表1避障规则表一节中光流法给出的障碍物信息来建立。nearmidfar本文引入隶属度法【7】来定义集合。如对集合A,该方法引入了集合A的隶属度函数,用表示,它是[0,1】nearopticalTRTRL上的一个连续函数,反映了论域中的元素x属于集合midTLopticalTRLA的程度,若隶属度接近1,表示x属于A的程度高,farTLLTLLGO若隶属度接近0,表示x属于A的程度低。3.1避障策略的输入表1中的optical表示方向由第2节中的光流法红外线测距传感器的测距范围为20~150cm,的结果给出:波束角大概是20度,移动机器人上摆放了两个红外当△(FL—FR)O,左侧障碍物比较密集,应该向右线测距传感器,两个红外线测距传感器大致成20度转,即表格