发布信息

一种单目鱼眼测距误差补偿方法及系统与流程 专利技术说明

作者:admin      2023-07-05 12:36:30     656



计算;推算;计数设备的制造及其应用技术1.本发明涉及智能交通及辅助驾驶技术领域,特别是涉及一种单目鱼眼测距误差补偿方法及系统。背景技术:2.随着汽车智能化的发展趋势,辅助驾驶、自动驾驶等正成为学术界和工业界的研究热点,国内外众多传统汽车厂商、高科技企业等都致力于推出各自的解决方案。近年来,车辆视觉系统在智能辅助驾驶系统的外界环境感知中具有及其重要的地位,其主要负责短程目标测距,例如在智能泊车系统中,车辆视觉系统承担着车辆自主泊车过程中对近处的车位及目标车位左右障碍物的测距任务。而车辆视觉系统是基于单目鱼眼实现的,因此,要求单目鱼眼具备一定的精准测距的能力。3.当前技术通过对单目鱼眼图像进行内外参的标定能够实现通过图像中的检测结果转化成实际中的坐标距离。目前的单台相机测距所使用的方案为先对相机完成内外参的标定,然后基于相机的外参计算障碍物的实际距离,然而,这种测距方案存在以下问题:4.1、相机的标定内外参的结果并不是非常准确,因此,在基于标定的相机外参矩阵去计算障碍物的实际距离时,往往与真实距离存在很大的误差,这个误差主要分成两部分,包括横向误差和纵向误差。5.2、相机的标定过程往往是在有限空间的标定房中进行,然而,实际需要测量的障碍物真实距离会超过标定房所能覆盖的范围,这就意味着,在标定房固定距离中的障碍物测距能够满足我们的需求,但是超过标定房所能标定的范围的障碍物测距会产生极大的测距误差。换句话说,相机测量障碍物的准确性范围受限于标定房设置的尺寸,这样极大限制了在实际情况中的使用。6.3、目前针对单目鱼眼测距的误差补偿方案会针对障碍物从相机坐标系解算到世界坐标系后,根据解算出来的距离进行分段补偿的方案。例如:较近处的障碍物测距结果给予横向误差和纵向误差两个方向上较小的补偿,而较远处的障碍物测距结果给予横向误差和纵向误差两个方向上较大的补偿,这种补偿方案来源于人为设置的距离阈值进行的分段补偿,依然存在一定的误差。7.4、单目鱼眼在进行测距的过程中首先需要进行畸变矫正,而畸变矫正的结果往往会丢失鱼眼边缘处的图像信息,因此,鱼眼相机在使用传统的标定法进行测距时鱼眼的视野会被极大限制从而失去了鱼眼的广角优势。技术实现要素:8.本发明为克服上述现有技术中的相机测距时需要先对相机完成内外参的标定,然后基于相机的外参计算障碍物的实际距离,存在误差大、相机测量障碍物的准确性范围受限于标定房设置的尺寸、测距视野被限制等问题,提供一种单目鱼眼测距误差补偿方法及系统。9.为解决上述技术问题,本发明的技术方案如下:10.一种单目鱼眼测距误差补偿方法,应用于单目鱼眼系统,包括如下步骤:11.获取单目鱼眼图像;12.对获取的单目鱼眼图像进行区域划分,以得到多个子区域;13.获取子区域中的障碍物图像坐标;14.根据子区域中的坐标计算模型,计算得到子区域中的障碍物的世界坐标值;15.根据子区域中的坐标误差计算模型,获得子区域中的障碍物的世界坐标误差值;16.根据子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值计算得到子区域误差补偿后的世界坐标系下的障碍物坐标值。17.进一步的,作为优选技术方案,对所述单目鱼眼图像进行区域划分具体包括以下步骤:18.将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,计算得到边缘图像区域和非边缘图像区域;19.将获取的单目鱼眼图像输入到图像分割神经网络中,计算得到地面图像区域和非地面图像区域;20.将边缘图像区域和非边缘图像区域以及地面图像区域和非地面图像区域进行求交集,得到边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域这四个子区域。21.进一步的,作为优选技术方案,当所述子区域为非边缘地面图像区域时,所述非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值通过以下步骤获取:22.获取非边缘地面图像区域中的障碍物图像坐标;23.通过坐标计算模型获取非边缘地面图像区域中的障碍物的世界坐标值;24.通过坐标误差计算模型获得非边缘地面图像区域中的障碍物的世界坐标误差值;25.将非边缘地面图像区域中的障碍物的世界坐标值与非边缘地面图像区域中的障碍物的世界坐标误差值求和得到非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值。26.进一步的,作为优选技术方案,所述坐标计算模型为当前单目鱼眼图像的内参与外参标定文件,所述非边缘地面图像区域中的障碍物的世界坐标值通过以下步骤获取:27.将所述非边缘地面图像区域中的障碍物图像坐标输入到当前单目鱼眼图像的内参与外参标定文件中,计算得到非边缘地面图像区域中的障碍物的世界坐标值。28.进一步的,作为优选技术方案,所述坐标误差计算模型为图像坐标到世界坐标误差值映射网络,所述非边缘地面图像区域中的障碍物的世界坐标误差值通过以下步骤获取:29.将所述非边缘地面图像区域中的障碍物图像坐标输入到图像坐标到世界坐标误差值映射网络中,计算得到非边缘地面图像区域中的障碍物的世界坐标误差值。30.进一步的,作为优选技术方案,所述图像坐标到世界坐标误差值映射网络通过以下步骤获取:31.采集多张单目鱼眼图像信息;32.对每一帧图像的分布在非边缘地面图像区域中的特征点一一对应的世界坐标值进行人工测量;33.基于内参与外参标定文件计算分布在非边缘地面图像区域中的特征点的世界坐标值;34.将人工测量的世界坐标值与基于内参与外参标定文件计算的世界坐标值相减得到第一误差值;35.将得到的第一误差值作为图像坐标到世界坐标误差值映射网络的输出数据,形成数据集;36.将每一帧图像的分布在非边缘地面图像区域中的特征点的图像坐标输入到图像坐标到世界坐标误差值映射网络中,以输出第二误差值;37.将第二误差值与第一误差值做误差计算;38.将计算的误差反传给图像坐标到世界坐标误差值映射网络,以更新图像坐标到世界坐标误差值映射网络的参数;39.直至将所有图像的分布在非边缘地面图像区域中的特征点的图像坐标输入至图像坐标到世界坐标误差值映射网络中,完成图像坐标到世界坐标误差值映射网络的训练。40.进一步的,作为优选技术方案,当所述子区域为边缘地面图像区域时,所述边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值通过以下步骤获取:41.获取边缘地面图像区域中的障碍物图像坐标;42.通过坐标计算模型获得边缘地面图像区域中的障碍物的世界坐标值;43.所述边缘地面图像区域中的障碍物的世界坐标值即为边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值。44.进一步的,作为优选技术方案,所述坐标计算模型为图像坐标到世界坐标映射网络,所述图像坐标到世界坐标映射网络通过以下步骤获取:45.采集多张单目鱼眼图像信息;46.对每一帧图像的分布在边缘地面图像区域中的特征点一一对应的世界坐标值进行人工测量,形成数据集;47.将每一帧图像的分布在边缘地面图像区域中的特征点的图像坐标输入到图像坐标到世界坐标映射网络中,以输出世界坐标值;48.将图像坐标到世界坐标映射网络输出的世界坐标值与人工测量的世界坐标值做误差计算;49.将计算的误差反传给图像坐标到世界坐标映射网络,以更新图像坐标到世界坐标映射网络的参数;50.直至将所有图像的分布在边缘地面图像区域中的特征点的图像坐标输入至图像坐标到世界坐标映射网络中,完成图像坐标到世界坐标映射网络的训练。51.进一步的,作为优选技术方案,当所述子区域为边缘非地面图像区域或非边缘非地面图像区域时,对边缘非地面图像区域或非边缘非地面图像区域内的障碍物不做处理。52.进一步的,作为优选技术方案,边缘图像区域和非边缘图像区域的划分具体包括:53.将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,完成图像畸变矫正,记录矫正后图像的边缘点的图像坐标;54.将矫正后图像的边缘点的图像坐标反畸变矫正重新映射回单目鱼眼图像上的图像坐标;55.计算边缘点的图像坐标重新映射回单目鱼眼图像上的图像坐标到单目鱼眼图像中心点的欧式距离;56.以单目鱼眼图像中心点为圆心,以所述欧式距离为半径绘制圆形,将圆形外部定义为边缘图像区域,将圆形内部定义为非边缘图像区域。57.进一步的,作为优选技术方案,所述图像分割神经网络通过以下步骤获取:58.采集公共交通道路上的图像信息;59.对每一帧图像的路面部分和非路面部分的图像像素进行人工标注,形成数据集;60.将每一帧图像输入到图像分割神经网络中,以输出分割结果;61.将图像分割神经网络输出的分割结果与人工标注的结果进行误差计算;62.将计算的误差反传给图像分割神经网络,以更新图像分割神经网络的参数;63.直至将所有的图像输入至图像分割神经网络中,完成图像分割神经网络的训练。64.一种单目鱼眼测距误差补偿系统,应用于单目鱼眼系统,包括:65.区域划分模块,用于对获取的单目鱼眼图像进行区域划分,以将单目鱼眼图像划分为多个子区域;66.第一计算模块,用于获取子区域中的障碍物图像坐标,根据子区域中的坐标计算模型,计算得到子区域中的障碍物的世界坐标值;67.第二计算模块,用于获取子区域中的障碍物图像坐标,根据子区域中的坐标误差计算模型,获得子区域中的障碍物的世界坐标误差值;68.第三计算模块,用于根据子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值计算子区域误差补偿后的世界坐标系下的障碍物坐标值。69.与现有技术相比,本发明技术方案的有益效果是:70.本发明通过将单目鱼眼图像分割为多个子区域,包括边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域、非边缘非地面图像区域,其中,边缘地面图像区域中的障碍物坐标值通过图像坐标到世界坐标映射网络进行映射,非边缘地面图像区域中的障碍物坐标值通过单目鱼眼图像的内参与外参标定文件解算结合图像坐标到世界坐标误差值映射网络进行误差补偿,进而提高了单目鱼眼的测距精度。附图说明71.图1为本发明实施例提供的单目鱼眼测距误差补偿方法步骤流程图。72.图2为本发明实施例提供的单目鱼眼图像进行区域划分的步骤流程图。73.图3为本发明实施例提供的边缘图像区域和非边缘图像区域划分示意图。74.图4为本发明实施例提供的地面图像区域和非地面图像区域划分示意图。75.图5为本发明实施例提供的边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域划分示意图。76.图6为本发明实施例提供的边缘图像区域和非边缘图像区域划分的步骤流程图。77.图7为本发明实施例提供的实现地面图像区域和非地面图像区域划分的图像分割神经网络训练步骤流程图。78.图8为本发明实施例提供的非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取步骤流程图。79.图9为本发明实施例提供的图像坐标到世界坐标误差值映射网络的获取步骤流程图。80.图10为本发明实施例提供的边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取步骤流程图。81.图11为本发明实施例提供的图像坐标到世界坐标映射网络的获取步骤流程图。82.图12为本发明实施例提供的单目鱼眼测距误差补偿系统结构框图。83.附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的;相同或相似的标号对应相同或相似的部件;附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制。具体实施方式84.下面结合附图对本发明的较佳实施例进行详细阐述,以使本发明的优点和特征更易被本领域技术人员理解,从而对本发明的保护范围作出更为清楚的界定。。85.本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的系统或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制。86.此外,若有“第一”、“第二”等术语仅用于描述目的,主要是用于区分不同的系统、元件或组成部分(具体的种类和构造可能相同也可能不同),并非用于表明或暗示所指示系统、元件或组成部分的相对重要性和数量,而不能理解为指示或者暗示相对重要性。87.实施例188.本实施例为克服现有技术中的相机测距时需要先对相机完成内外参的标定,然后基于相机的外参计算障碍物的实际距离,存在误差大、相机测量障碍物的准确性范围受限于标定房设置的尺寸、测距视野被限制等问题,公开一种单目鱼眼测距误差补偿方法。89.本实施例的目鱼眼测距误差补偿方法,应用于单目鱼眼系统,其可搭载于移动载具中,例如车辆载具、船体载具,该载具通过单目鱼眼测距误差补偿方法在单目鱼眼相机测距过程中对其进行误差补偿,提升了单目鱼眼相机测距精度的同时,也保留了单目鱼眼图像的广角优势,进一步使得单目鱼眼相机测距更加精确。90.在本实施例中,请参阅图1,图中示出了本技术实施例提供的单目鱼眼测距误差补偿方法的实现流程。91.如图1所示,所述单目鱼眼测距误差补偿方法包括以下步骤:92.s101.获取单目鱼眼图像。93.在本步骤中,该单目鱼眼图像是通过设置在车辆上的单目鱼眼相机实时采集的。94.s102.获取的单目鱼眼图像进行区域划分,以得到多个子区域。95.在本步骤中,采集到单目鱼眼图像后,根据不同的算法或者模型对其进行区域划分,例如,单目鱼眼图像的内参与外参标定文件和深度学习网络等,从而将单目鱼眼图像划分为多个子区域,以便于在后续步骤中对不同子区域中的障碍物采取不同的方案进行测距计算。96.s103.获取子区域中的障碍物图像坐标。97.在本步骤中,当将单目鱼眼图像划分为多个子区域后,需要分别计算每个子区域中的障碍物的世界坐标值和世界坐标误差值。故此,需要先获取子区域中的障碍物图像坐标,以便于后续的障碍物的世界坐标值的计算。98.s104.根据子区域中的坐标计算模型,计算得到子区域中的障碍物的世界坐标值。99.在本步骤中,当将单目鱼眼图像划分为多个子区域后,需要分别计算每个子区域中的障碍物的世界坐标值。100.该子区域中的障碍物的世界坐标值是通过以下方式计算的:101.先获取对应子区域中的障碍物图像坐标,然后根据子区域中的坐标计算模型,计算得到子区域中的障碍物的世界坐标值。该坐标计算模型可以为单目鱼眼图像的内参与外参标定文件或基于深度学习的特定网络。102.s105.根据子区域中的坐标误差计算模型,获得子区域中的障碍物的世界坐标误差值。103.在本步骤中,当将单目鱼眼图像划分为多个子区域后,需要分别计算每个子区域中的障碍物的世界坐标误差值。104.该子区域中的障碍物的世界坐标误差值是通过以下方式计算的:105.先获取对应子区域中的障碍物图像坐标,然后根据子区域中的坐标误差计算模型,计算得到子区域中的障碍物的世界坐标误差值。该坐标误差计算模型是基于深度学习的特定网络。106.s106.根据子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值计算得到子区域误差补偿后的世界坐标系下的障碍物坐标值。107.在本步骤中,通过上述步骤得到子区域中的障碍物的世界坐标值和世界坐标误差值后,将子区域中的障碍物的世界坐标值和世界坐标误差值进行求和运算,即可得到子区域误差补偿后的世界坐标系下的障碍物坐标值。108.由上可知,通过将单目鱼眼图像分割为多个子区域,然后对每个子区域分别计算,计算子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值,然后将子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值相加,从而可以得到子区域误差补偿后的世界坐标系下的障碍物坐标值,实现对单目鱼眼测距进行误差补偿,提高了单目鱼眼的测距精度。109.请参阅图2,图中示出了本技术实施例提供的单目鱼眼图像进行区域划分的实现流程。110.如图2所示,对单目鱼眼图像进行区域划分包括以下步骤:111.s201.将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,计算得到边缘图像区域和非边缘图像区域。112.在本步骤中,当前的现有技术可以直接完成单目鱼眼相机的内外参标定,故此,该当前鱼眼图像的内参标定文件为单目鱼眼相机的内外参标定的标准文件,此时,将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,可通过当前鱼眼图像的内参标定文件解算出当前鱼眼图像的内参标定参数,进一步计算当前鱼眼图像的左右边缘像素点,根据当前鱼眼图像的左右边缘像素点来确定边缘和非边缘的分界线,从而实现将单目鱼眼图像划分为边缘图像区域和非边缘图像区域,划分后的边缘图像区域和非边缘图像区域参见图3所示,其中,边缘图像区域标记为11,非边缘图像区域标记为12。113.s202.将获取的单目鱼眼图像输入到图像分割神经网络中,计算得到地面图像区域和非地面图像区域。114.在本步骤中,需要先训练图像分割神经网络,其实基于深度卷积的网络结构设计,具有确定的输入输出数据。115.例如,在本步骤中,可将单张单目鱼眼图像确认为输入数据,将完成分割后的图像确认为输出数据。116.然后将获取的单目鱼眼图像输入到图像分割神经网络中,计算得到地面图像区域和非地面图像区域。117.划分后的地面图像区域和非地面图像区域参见图4所示,其中,地面图像区域标记为21,非地面图像区域标记为22。118.s203.将边缘图像区域和非边缘图像区域以及地面图像区域和非地面图像区域进行求交集,得到边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域这四个子区域。119.在本步骤中,直接将上述两种方案分别分隔的两个子图像区域进行求交集,从而可得到四个子区域,即边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域。120.划分后的边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域参见图5所示,其中,边缘地面图像区域标记为31,边缘非地面图像区域标记为34、非边缘地面图像区域标记为32、非边缘非地面图像区域标记为33。121.请参阅图6,图中示出了本技术实施例提供的边缘图像区域和非边缘图像区域划分的实现流程。122.如图6所示,对单目鱼眼图像进行边缘图像区域和非边缘图像区域划分包括以下步骤:123.s301.将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,完成图像畸变矫正,记录矫正后图像的边缘点的图像坐标。124.其中,上述已经说明当前鱼眼图像的内参标定文件为单目鱼眼相机的内外参标定的标准文件,在此不再进行重复阐述。125.故此,本步骤可以理解为:126.将获取的单目鱼眼图像输入到当前鱼眼图像的内参标定文件中,从而完成图像畸变矫正,记录矫正后图像的边缘点的图像坐标为(x1,y1)。127.s302.将矫正后图像的边缘点的图像坐标反畸变矫正重新映射回单目鱼眼图像上的图像坐标。128.本步骤可以理解为:将矫正后图像的边缘点的图像坐标(x1,y1),反畸变矫正重新映射回单目鱼眼图像上的图像坐标(x2,y2)。129.s303.计算边缘点的图像坐标重新映射回单目鱼眼图像上的图像坐标到单目鱼眼图像中心点的欧式距离。130.本步骤可以理解为:计算图像坐标(x2,y2)到单目鱼眼图像中心点的欧式距离edge。131.s304.以单目鱼眼图像中心点为圆心,以所述欧式距离为半径绘制圆形,将圆形外部定义为边缘图像区域,将圆形内部定义为非边缘图像区域。132.本步骤可以理解为:以单目鱼眼图像中心点为圆心,以欧式距离edge为半径绘制圆形,将圆形外部定义为边缘图像区域,将圆形内部定义为非边缘图像区域。133.通过以上方案划分后的边缘图像区域和非边缘图像区域参见图3。134.请参阅图7,图中示出了本技术实施例提供的实现地面图像区域和非地面图像区域划分的图像分割神经网络训练步骤流程图。135.如图7所示,该图像分割神经网络训练包括以下步骤:136.s401.采集公共交通道路上的图像信息。137.本步骤具体为:通过安装在车身上的单目鱼眼相机采集多张公共交通道路上的图像信息,为图像分割神经网络训练的数据集做准备。138.s402.对每一帧图像的路面部分和非路面部分的图像像素进行人工标注,形成数据集。139.即将每一帧图像的路面部分和非路面部分的每个图像像素都打上标签,比如:地面部分的每个图像像素带有的标签为0,非地面部分的每个图像像素带有的标签为1,已完成图像数据集的准备。140.s403.将每一帧图像输入图像分割神经网络中,以输出分割结果。141.s404.根据图像分割神经网络输出的分割结果与人工标注的结果进行误差计算。142.s405.将计算的误差反传给图像分割神经网络,以更新图像分割神经网络的参数。143.s406.直至将所有的图像输入至图像分割神经网络中,完成图像分割神经网络的训练。144.在本实施例中,在进行图像分割神经网络训练之前,需要先确定图像分割神经网络结构以及图像分割神经网络的输入和输出数据。145.目前,现有的深度神经网络结构主要包含两大方向:基于深度卷积的网络结构设计与基于transformer(注意力机制)的网络结构设计。146.在本实施例中,该图像分割神经网络是基于深度卷积的网络结构。147.在该图像分割神经网络中,将单张单目鱼眼图像确认为输入数据,将完成分割后的图像确认为输出数据。然后,采用不同的标签对分割后的图像的地面部分和非地面部分的图像像素进行划分;比如:地面部分的每个图像像素带有的标签为0,非地面部分的每个图像像素带有的标签为1,然后采用上述方法对图像分割神经网络进行训练,以提高图像分割神经网络的精度。148.请参阅图8,图中示出了本技术实施例提供的非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取步骤流程图。149.如图8所示,该非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取包括以下步骤:150.s501.获取非边缘地面图像区域中的障碍物图像坐标。151.该非边缘地面图像区域中的障碍物图像坐标记为(x0,y0)。152.s502.通过坐标计算模型获取非边缘地面图像区域中的障碍物的世界坐标值。153.将该非边缘地面图像区域中的障碍物的世界坐标值记为(x1,y1,z1)。154.其中,坐标计算模型为当前单目鱼眼图像的内参与外参标定文件,那么非边缘地面图像区域中的障碍物的世界坐标值(x1,y1,z1)通过以下步骤获取:155.将非边缘地面图像区域中的障碍物图像坐标(x0,y0)输入到当前单目鱼眼图像的内参与外参标定文件中,计算得到非边缘地面图像区域中的障碍物的世界坐标值(x1,y1,z1)。156.s503.通过坐标误差计算模型获得非边缘地面图像区域中的障碍物的世界坐标误差值。157.将该非边缘地面图像区域中的障碍物的世界坐标误差值记为(x2,y2,z2)。158.其中,坐标误差计算模型为图像坐标到世界坐标误差值映射网络,那么非边缘地面图像区域中的障碍物的世界坐标误差值(x2,y2,z2)通过以下步骤获取:159.将非边缘地面图像区域中的障碍物图像坐标(x0,y0)输入到图像坐标到世界坐标误差值映射网络中,计算得到非边缘地面图像区域中的障碍物的世界坐标误差值(x2,y2,z2)。160.s504.将非边缘地面图像区域中的障碍物的世界坐标值与非边缘地面图像区域中的障碍物的世界坐标误差值求和得到非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值。161.将该非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值记为(x,y,z)。162.那么(x,y,z)=(x1,y1,z1)+(x2,y2,z2),其中,x=x1+x2,y=y1+y2,z=z1+z2。163.本实施例的非边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值是基于单目鱼眼图像的内参与外参标定文件解算结合图像坐标到世界坐标误差值映射网络进行误差补偿得到,提高了障碍物的测量精度,进一步提高了单目鱼眼的测距精度。164.请参阅图9,图中示出了本技术实施例提供的图像坐标到世界坐标误差值映射网络的获取步骤流程图。165.如图9所示,该图像坐标到世界坐标误差值映射网络的训练包括以下步骤:166.s601.采集多张单目鱼眼图像信息。167.s602.对每一帧图像的分布在非边缘地面图像区域中的特征点一一对应的世界坐标值进行人工测量。168.s603.基于内参与外参标定文件计算分布在非边缘地面图像区域中的特征点的世界坐标值。169.s604.将人工测量的世界坐标值与基于内参与外参标定文件计算的世界坐标值相减得到第一误差值。170.s605.将得到的误差值作为图像坐标到世界坐标误差值映射网络的输出数据,形成数据集。171.s606.将每一帧图像的分布在非边缘地面图像区域中的特征点的图像坐标输入到图像坐标到世界坐标误差值映射网络中,输出第二误差值。172.s607.根据图像坐标到世界坐标误差值映射网络输出的误差值与人工测量的世界坐标值与基于内参与外参标定文件计算的世界坐标值相减得到误差值做误差计算。173.即将第二误差值与第一误差值做相减运算,得到误差。174.s608.将计算的误差反传给图像坐标到世界坐标误差值映射网络,以更新图像坐标到世界坐标误差值映射网络的参数。175.s609.直至将所有图像的分布在非边缘地面图像区域中的特征点的图像坐标输入至图像坐标到世界坐标误差值映射网络中,完成图像坐标到世界坐标误差值映射网络的训练。176.在本实施例中,在进行图像坐标到世界坐标误差值映射网络训练之前,需要先确定图像坐标到世界坐标误差值映射网络结构以及图像坐标到世界坐标误差值映射网络的输入和输出数据。177.目前,现有的深度神经网络结构主要包含两大方向:基于深度卷积的网络结构设计与基于transformer(注意力机制)的网络结构设计。178.在本实施例中,该图像坐标到世界坐标误差值映射网络是基于深度卷积的网络结构。179.在该图像坐标到世界坐标误差值映射网络中,将图像坐标系下分布在非边缘地面图像区域中的特征点的图像坐标确认为输入数据,将图像坐标系下分布在非边缘地面图像区域中的特征点一一对应的世界坐标值与基于内参与外参标定文件求解之后的世界坐标值的误差值确认为输出数据,从而可以通过图像坐标到世界坐标误差值映射网络根据图像坐标系下分布在非边缘地面图像区域中的特征点的图像坐标值计算得到图像坐标系下分布在非边缘地面图像区域中的特征点一一对应的世界坐标值与基于内参与外参标定文件求解之后的世界坐标值的误差值。180.在本实施例中,对位于边缘非地面图像区域或非边缘非地面图像区域内的障碍物不做处理。181.实施例2182.本实施例公开了一种单目鱼眼测距误差补偿方法,其在实施例1的基础上公开了边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取步骤流程。183.请参阅图10,图中示出了本技术实施例提供的边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取步骤流程图。184.如图10所示,该边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值的获取包括以下步骤:185.s701.获取边缘地面图像区域中的障碍物图像坐标。186.将该边缘地面图像区域中的障碍物图像坐标记为(x0,y0)。187.s702.通过坐标计算模型获得边缘地面图像区域中的障碍物的世界坐标值。188.将该边缘地面图像区域中的障碍物的世界坐标值记为(x1,y1,z1)。189.其中,坐标计算模型为图像坐标到世界坐标映射网络,那么边缘地面图像区域中的障碍物的世界坐标值(x1,y1,z1)通过以下步骤获取:190.将边缘地面图像区域中的障碍物图像坐标(x0,y0)输入到训练好的图像坐标到世界坐标映射网络中,计算得到边缘地面图像区域中的障碍物的世界坐标值(x1,y1,z1)。191.s703.将边缘地面图像区域中的障碍物的世界坐标值记为边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值。192.在本步骤中,将该边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值记为(x,y,z)。193.那么,(x,y,z)=(x1,y1,z1),其中,x=x1,y=y1,z=z1。194.本实施例的边缘地面图像区域误差补偿后的世界坐标系下的障碍物坐标值是基于图像坐标到世界坐标映射网络计算得到的,提高了障碍物的测量精度,进一步提高了单目鱼眼的测距精度。195.请参阅图11,图中示出了本技术实施例提供的图像坐标到世界坐标映射网络的获取步骤流程图。196.如图11所示,该图像坐标到世界坐标映射网络的训练包括以下步骤:197.s801.采集多张单目鱼眼图像信息。198.s802.对每一帧图像的分布在边缘地面图像区域中的特征点一一对应的世界坐标值进行人工测量,形成数据集。199.s803.将每一帧图像的分布在边缘地面图像区域中的特征点的图像坐标输入到图像坐标到世界坐标映射网络中,以输出坐标值。200.s804.根据图像坐标到世界坐标映射网络输出的世界坐标值与人工测量的世界坐标值做误差计算。201.s805.将计算的误差反传给图像坐标到世界坐标映射网络,以更新图像坐标到世界坐标映射网络的参数。202.s806.直至将所有图像的分布在边缘地面图像区域中的特征点的图像坐标输入至图像坐标到世界坐标映射网络中,完成图像坐标到世界坐标映射网络的训练。203.在本实施例中,在进行图像坐标到世界坐标映射网络训练之前,需要先确定图像坐标到世界坐标映射网络结构以及图像坐标到世界坐标映射网络的输入和输出数据。204.目前,现有的深度神经网络结构主要包含两大方向:基于深度卷积的网络结构设计与基于transformer(注意力机制)的网络结构设计。205.在本实施例中,该图像坐标到世界坐标映射网络是基于深度卷积的网络结构。206.在该图像坐标到世界坐标映射网络中,将图像坐标系下分布在边缘地面图像区域中的特征点的图像坐标确认为输入数据,将图像坐标系下分布在边缘地面图像区域中的特征点一一对应的世界坐标确认为输出数据,从而可以通过图像坐标到世界坐标映射网络根据图像坐标系下分布在边缘地面图像区域中的特征点的图像坐标值计算得到图像坐标系下分布在边缘地面图像区域中的特征点一一对应的世界坐标值。207.实施例3208.本实施例公开了一种单目鱼眼测距误差补偿系统,其采用实施例1或2所述的一种单目鱼眼测距误差补偿方法实现对单目鱼眼图像进行区域划分,并计算每个子区域中误差补偿后的世界坐标系下的障碍物坐标值,实现对其进行误差补偿,提高了障碍物的测量精度,进一步提高了单目鱼眼的测距精度。209.请参阅图12,图中示出了本技术实施例提供的单目鱼眼测距误差补偿系统结构框图。210.如图12所示,该单目鱼眼测距误差补偿系统包括:区域划分模块901、第一计算模块902、第二计算模块903和第三计算模块904。211.其中,区域划分模块901,用于对获取的单目鱼眼图像进行区域划分,以将单目鱼眼图像划分为多个子区域。212.在本实施例中,区域划分模块901至少包括鱼眼图像的内参标定文件和/或图像分割神经网络,划分后的子区域包括边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域。213.故此,本实施例可以理解为,通过鱼眼图像的内参标定文件和/或图像分割神经网络对获取的单目鱼眼图像进行区域划分,从而将其分割为边缘地面图像区域、边缘非地面图像区域、非边缘地面图像区域和非边缘非地面图像区域这四个子区域。214.在本实施例中,通过区域划分模块901对获取的单目鱼眼图像进行区域划分的具体实现过程可参见实施例1,本实施例不再进行重复阐述。215.第一计算模块902,用于获取子区域中的障碍物图像坐标,并根据子区域中的坐标计算模型,计算得到子区域中的障碍物的世界坐标值。216.在本实施例中,该第一计算模块902可包括当前单目鱼眼图像的内参与外参标定文件或图像坐标到世界坐标映射网络,以通过其获得子区域中的障碍物的世界坐标值。217.故此,本实施例可以理解为,将获得的子区域中的障碍物图像坐标输入到当前单目鱼眼图像的内参与外参标定文件或图像坐标到世界坐标映射网络中,从而得到子区域中的障碍物的世界坐标值。218.本实施例中通过第一计算模块902计算子区域中的障碍物的世界坐标值的计算过程参见实施例1,本实施例不再进行重复阐述。219.第二计算模块903,用于获取子区域中的障碍物图像坐标,根据子区域中的坐标误差计算模型,获得子区域中的障碍物的世界坐标误差值。220.在本实施例中,该第二计算模块903至少包括图像坐标到世界坐标误差值映射网络,以通过其获得子区域中的障碍物的世界坐标误差值。221.故此,本实施例可以理解为,将获得的子区域中的障碍物图像坐标输入到图像坐标到世界坐标误差值映射网络中,从而得到子区域中的障碍物的世界坐标误差值。222.本实施例中通过第二计算模块903计算子区域中的障碍物的世界坐标误差值的计算过程参见实施例1,本实施例不再进行重复阐述。223.第三计算模块904,用于根据子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值计算子区域误差补偿后的世界坐标系下的障碍物坐标值。224.在本实施例中,该第三计算模块904仅用于将子区域中的障碍物的世界坐标值和子区域中的障碍物的世界坐标误差值进行求和计算,从而得到子区域误差补偿后的世界坐标系下的障碍物坐标值。225.本实施例中通过第三计算模块904计算子区域误差补偿后的世界坐标系下的障碍物坐标值的计算过程参见实施例1,本实施例不再进行重复阐述。226.本实施例的一种单目鱼眼测距误差补偿系统,其在测距过程中采用实施例1或2所述的一种单目鱼眼测距误差补偿方法实现对其进行误差补偿,提高了障碍物的测量精度,进一步提高了单目鱼眼的测距精度。227.显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部