计算;推算;计数设备的制造及其应用技术1.本发明属于智能控制技术领域,尤其涉及了一种面向野外山林环境搜救的多机协同三维建模系统及方法。背景技术:2.由于野外搜救争分夺秒,强调效率,而其地形多变、树木密集,人工搜救很难顺利且快速地进行,因此野外搜救是一项困难的任务。现有技术中,通常利用无人机来帮助实施野外搜救工作。无人机在野外搜救任务中,需要实现快速对于搜救区域进行建模来寻找被困人群,但仅依靠手动飞控与手动确定重点区域难以高效完成在诸如森林等复杂场景下的飞行任务,因此无人机需要具备自主确定重点区域并建模的能力。此外,在野外搜救任务中,无人机需要自主确定搜救目标,人工操作飞控时难以通过无人机视角所拍摄的有限照片来判断搜索区域,因此,面向野外复杂环境的无人机自主三维建模是一个具有极大应用价值的问题。3.目前,实现无人机控制平台的方法有很多种,然而大多缺乏对协同任务的良好支持。例如,他们以领导者-追随者模式控制多架无人机,而不是以更合作的方式。同时现有的三维建模需要手动确定所拍摄的重点区域,既不智能也不高效。要实现无人机快速进行野外搜救需要从无人机控制平台和三维建模提供支持。4.在无人机控制平台方面,目前市场上大多数只支持主从模式,不支持对协作任务的程序化控制,且例如gcss等开源控制平台每个平台只支持一组特定的无人机或无人机飞行控制器。而现有的地面控制系统中缺乏能量模拟模块,该模块在起飞前告知飞行的能量可行性,从而可以避免任务中断和由低电池引起的后续危险。在三维建模方面,目前市场上大多采用正摄或正摄+手动确定重点区域倾斜摄影,其中正摄建模精度不高,无法满足野外搜救的需求,而手动确定重点区域倾斜摄影会降低建模效率,因此更好的方案是混合建模,即正摄与倾斜摄影结合,其中用深度学习自主确定重点区域进行斜射,能够很好地满足野外搜救高效率、高精度的需求。技术实现要素:5.本发明正是针对现有技术中三维建模难以满足野外山林环境搜救任务的问题,提供一种面向野外山林环境搜救的多机协同三维建模系统及方法,至少包括地面站控制模块、航拍影像实时拼接模块、深度估计模块和多机协同路径规划模块;所述地面站控制模块用于与无人机通信,针对待搜救区域,将初步生成的单机粗飞轨迹航线发送给无人机,控制无人机飞行并接收无人机回传的状态信息;所述航拍影像实时拼接模块接收地面站控制模块中无人机回传的影像,基于特征匹配的影像进行实时拼接;所述深度估计模块接收航拍影像实时拼接模块输出的全局拼接图片,基于深度学习的单目图像深度估计模型,获得拼接图像的全局深度图;所述多机协同路径规划模块根据深度估计模块输出的全局深度图,获取全局场景下高度较高的区域作为重点区域,对重点区域生成倾斜摄影轨迹,再利用改进的k聚类算法将所有轨迹点划分成任务量均衡的类别,让无人机能够经过每一类点集的所有轨迹点,根据无人机回传的图像建立待搜索区域的三维重建模型,便于获取野外山林环境更为详细的地貌,制定详细的搜救路线,对智能控制技术领域有重大意义。6.为了实现上述目的,本发明采取的技术方案是:面向野外山林环境搜救的多机协同三维建模系统,至少包括:地面站控制模块、航拍影像实时拼接模块、深度估计模块和多机协同路径规划模块;7.所述地面站控制模块用于与无人机通信,针对待搜救区域,将初步生成的单机粗飞轨迹航线发送给无人机,控制无人机飞行并接收无人机回传的状态信息;8.所述航拍影像实时拼接模块接收地面站控制模块中无人机回传的影像,基于特征匹配的影像进行实时拼接;9.所述深度估计模块接收航拍影像实时拼接模块输出的全局拼接图片,基于深度学习的单目图像深度估计模型,获得拼接图像的全局深度图;10.所述多机协同路径规划模块根据深度估计模块输出的全局深度图,获取全局场景下高度较高的区域作为重点区域,对重点区域生成倾斜摄影轨迹,再利用改进的k聚类算法将所有轨迹点划分成任务量均衡的类别,让无人机能够经过每一类点集的所有轨迹点,根据无人机回传的图像建立待搜索区域的三维重建模型。11.为了实现上述目的,本发明还采取的技术方案是:面向野外山林环境搜救的多机协同三维建模方法,包括如下步骤:12.s1:地面站控制模块根据选定的待搜救区域,生成单机粗飞轨迹航线发送给无人机,并控制无人机按照粗飞轨迹执行;13.s2:无人机执行并获取粗飞轨迹中的图像,采用基于特征匹配的无人机航拍影像实时拼接模块对地面控制站模块中接收到的无人机航拍影像进行实时拼接,得到全局拼接图片,所述步骤进一步包括:14.s21:地面站控制模块对无人机每一分段的飞行轨迹进行路径点划定,得到最终的waypoint点集,并将此waypoi nt点集按序发送给无人机执行;15.s22:根据按序接收到的图片it(t=1,2,...,n),从exif头中获取图片的经纬度信息gpst(t=1,2,...,n),对任意t时刻接收到的图片it,根据经纬度信息计算其与之前接收到的图片之间的距离disi(i=1,2,...,t-1),并从中找出距离最近的三张图片ij,ik,il;16.s23:计算it,ij,ik,il的sift特征点;17.s24:对参考图it和观测图ij,ik,il进行关键点匹配,所述匹配的方法具体为:当某对匹配图片的特征点大于设定的阈值时在两张图片之间建立一条边,如此往复,再利用最大联通分量算法求解整个匹配图的最大联通分量得到最佳匹配方案;18.s25:采用ransac算法剔除步骤s24中的误匹配点;19.s26:通过优化目标函数来实现减少大范围多幅拼接可能会出现的累积误差,设在m张无人机遥感影像中总共可以找到n组sift特征匹配,则第i幅对于选定的参考图像变换矩阵为hi,其具体形式如下:20.21.将其写成向量的表达形式后,其对应的列向量为xi,定义则需要优化的目标函数e(x)为:[0022][0023]其中,ei=xmpi,m-xnpi,n,ri=xrefpi,ref-pi,ref,pi,m为第i组匹配中图像m中的特征点坐标,ref为参考图像的编号;[0024]s27:通过s26中的优化过程后可以获取每张图片的全局最优变换矩阵hi,根据每张图片的变换矩阵hi,将所有图片映射到最终的融合图成像空间上;[0025]s28:记在粗飞阶段实时获取的每张图片ii(x,y)(x∈[0,m),y∈[0,n))的经纬度信息为gpsi=(longi,lati),因为在粗飞阶段无人机的摄像头竖直向下,因此可以假设在原图ii中,处的经纬度坐标为gpsi=(longi,lati),利用优化计算出的变换矩阵hi就可以得到在拼接图中处的经纬度坐标为gpsi=(longi,lati),对一系列像素坐标位置和经纬度坐标值(xi,yi,gpsi)利用最小二乘法拟合平面得到经度平面方程long(x,y)和纬度平面方程lat(x,y);[0026]s3:基于深度学习的单目图像深度估计模型,将步骤s2获得的全局拼接图片作为输入,得到拼接图像的深度图;所述深度估计模型为:encoder-decoder结构的有监督深度估计模型;[0027]s4:根据步骤s3中得到的深度图,获取全局场景下高度较高的区域作为重点区域,对重点区域生成倾斜摄影轨迹,再利用改进的k聚类算法将所有轨迹点划分成任务量均衡的类别,让无人机能够经过每一类点集的所有轨迹点,根据无人机回传的图像建立待搜索区域的三维重建模型。[0028]与现有技术相比,本发明具有的有益效果:[0029](1)在地面站系统的设计上,已有技术大都只支持对单个无人机进行控制,且需要针对特定型号的无人机。在搜救场景下,对效率要求高,单机必然不能满足需求,且搜救队经常会出现某架无人机故障而更新其型号从而造成所有无人机型号不一致的情况。本发明通过在每架无人机上安装一个raspberry pi 3主板,并在上面运行uav agent(无人机代理)程序来屏蔽这种硬件差异性,其主要作用是解析地面站控制系统发送的控制命令解析成特定的无人机飞控接收的api。并将无人机的状态信息解析成地面站可接收的格式通过字符流利用wi-fi或者olsr连接传输回地面站。[0030](2)在多机协同上,已有技术大都需要采用领导者-追随者模式控制多架无人机,该模式需要在多机协同的过程中保持一定的队形并选出领导者无人机,这限制了多无人机进行大范围协同建模的能力。本发明通过“空中画师”地面站系统采用集中式控制,对多架无人机同时进行状态监听和控制,实现更灵活的多机协同,大大提高了建模效率。[0031](3)在建模航线规划上,已有技术大都是生成固定高度的“栅栏式”往复轨迹,本发明通过深度学习技术获取待建模区域的地形信息,根据地形特点自动标定重点区域,对地形起伏区域生成倾斜摄影轨迹而对地形平坦区域生成正摄轨迹,实现了对飞行时间和建模精度的权衡。附图说明[0032]图1是本发明实施例1中地面站控制模块采用的“空中画师”平台系统架构图;[0033]图2是飞行监视器的逻辑架构图;[0034]图3是本发明实施例1中地面站控制模块采用的“空中画师”系统桌面端gui界面图;[0035]图4是本发明实施例2中图像采用拉普拉斯融合后的拼接结果及拍摄点投影结果图;[0036]图5是本发明实施例2中通过最小二乘法拟合获取的经度和纬度平面方程;[0037]图6是本发明实施例2中多机协同混合建模示意图;[0038]图7是本发明实施例2中,根据选定区域生成轨迹的演示图;[0039]图8是本发明实施例2中对轨迹点的kmeasn聚类以及对聚类后结果的tsp问题求解结果图。具体实施方式[0040]下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。[0041]实施例1[0042]面向野外山林环境搜救的多机协同三维建模系统,至少包括:地面站控制模块、航拍影像实时拼接模块、深度估计模块和多机协同路径规划模块;[0043]所述地面站控制模块用于与无人机通信,针对待搜救区域,将初步生成的单机粗飞轨迹航线发送给无人机,控制无人机飞行并接收无人机回传的状态信息;本实施例所采用的地面站控制模块为“空中画师”系统,其系统架构如图1所示,主要包含uav agent和飞行监视器两个模块:[0044]uav agent负责处理三种重要类型的信息,包括状态、设备控制和异常。提供了在飞行控制器和监视器之间通信的uav apis。在传输之前,uav agent定期将飞行状态(来自飞行控制器)解析成异常监视器和信息发送者需要的格式,信息发送者进一步将其转换成字符流用于传输。利用飞行控制器和uav agent程序之间的sdk来访问和更新飞行状态信息,该信息会输到地面的飞行监视器上。[0045]来自gcs的控制消息以字符流的格式流向uav agent的消息监听器。uav agent的命令处理器将每个命令转换成飞行控制模块可执行的格式。[0046]飞行状态信息会定期发送到uav agent的异常监控模块进行检查,如果出现任何紧急情况,异常监视器或者向飞行控制员发送高优先级命令,或者通过信息发送器向飞行监视器报告。[0047]飞行监视器的主要任务是与每架无人机进行通信,并进一步为它们的合作提供一系列必要的服务,其架构如图2所示。此外,飞行监视器还提供了分别通过api和gui与上层应用程序和终端用户进行交互的接口。[0048]根据从每个无人机接收的信息,飞行监视器中的服务控制器可以生成控制消息来实现连接维护、路径规划、同步、避免偏离和避碰的合作服务。通过配置网络服务,“空中画师”系统能够连接所有无人机和飞行监视器,所有连接的无人机由代理管理器管理,来实现连接维护;设置布尔类型的同步值来指示每架无人机的状态来实现同步;通过将实时轨迹与计划结果进行比较,可以捕获偏差并进一步补偿来实现避免偏离;通过检查任何两架飞行器的速度矢量并计算它们之间的距离,可以避免相撞。[0049]上层用户应用程序可以选择使用swarm apis来实现api交互。swarm apis主要由消息中心实现,消息中心负责双向处理和传递信息和消息。其中,提供无人机状态信息的状态api被集成到信息解析器中,提供控制功能的控制api被集成到消息分配器中。为了满足与不同任务的用户交互的特定需求,还提供了gui apis来帮助开发人员快速创建可视化界面,其gui界面如图3所示。[0050]上层用户应用程序可以选择通过couas中的任务文件与飞行监视器进行交互,任务文件是动作的有序列表;[0051]“空中画师”系统使uav以及飞行监视器能够通过高性能wi-fi连接到数据平面和控制平面来实现uav通信。通过wi-fi网络,为数据和控制传输建立tcp连接。每个数据包都由报头和主体组成,在数据包报头中指定了一个字段来区分“空中画师”系统中不同类型的数据包。而数据包主体包含重要信息,例如子任务中的动作、地理围栏的中心位置和半径等。为了在将来支持更多的功能,可以定义和添加新类型的数据包;[0052]为了支持跨无人机的协作和平稳执行任务,不同的无人机定期相互同步,以应对异步情况(例如,位置偏差、低连接质量或不同的传输延迟)。为此,发送给每架无人机的大任务必须分成一系列小的子任务,称为步骤。每个步骤最多包含一个同步设置为真(需要同步)的动作,这样无人机将在之前的每个步骤结束时同步进行下一步。在其步骤完成后,uav agent向飞行监视器发送同步消息,并等待直到它接收到确认消息。在收集了所有的同步消息后,飞行监视器向所有的无人机发送确认,以继续下一步。通过仔细地划分任务,“空中画师”系统最大限度地减少了等待时间。[0053]所述航拍影像实时拼接模块接收地面站控制模块中无人机回传的影像,基于特征匹配的影像进行实时拼接;所述航拍影像实时拼接模块中,采用拉普拉斯融合,建立图像的拉普拉斯金字塔lp(x,y,n)和高斯金字塔g(x,y,n+1),求掩膜图像的高斯金字塔gmask(x,y,n+1);对图像的拉普拉斯金字塔进行拼接,在每一层上将图像透过掩膜的部分拼接得到结果的拉普拉斯金字塔,计算结果的图像金字塔顶层,将每张图像的高斯金字塔顶层透过对应掩膜金字塔顶层的部分拼接,从结果的图像金字塔顶层开始,将结果的拉普拉斯金字塔的每一层相加然后上采样,最后得到融合结果。[0054]所述深度估计模块接收航拍影像实时拼接模块输出的全局拼接图片,基于深度学习的单目图像深度估计模型,获得拼接图像的全局深度图;所述多机协同路径规划模块根据深度估计模块输出的全局深度图,获取全局场景下高度较高的区域作为重点区域,对重点区域生成倾斜摄影轨迹,再利用改进的k聚类算法将所有轨迹点划分成任务量均衡的类别,让无人机能够经过每一类点集的所有轨迹点,根据无人机回传的图像建立待搜索区域的三维重建模型。[0055]实施例2:[0056]面向野外山林环境搜救的多机协同三维建模方法,本实施例中的地面站控制模块也采用“空中画师”系统,包括如下步骤:[0057]s1:地面站控制模块根据选定的待搜救区域,生成单机粗飞轨迹航线发送给无人机,并控制无人机按照粗飞轨迹执行;[0058]s2:无人机执行并获取粗飞轨迹中的图像,采用基于特征匹配的无人机航拍影像实时拼接模块对地面控制站模块中接收到的无人机航拍影像进行实时拼接,得到全局拼接图片。[0059]根据在“空中画师”系统中给定的待搜救多边形区域顶点的经纬度坐标,初步生成单机粗飞航线,并采用基于特征匹配的无人机影像实时拼接模块对“空中画师”系统接收到的无人机航拍影像进行实时拼接,其具体实现步骤如下:[0060]首先,找到多边形区域顶点经纬度坐标的最小和最大经度及维度,从而确定了整个待建模区域的最小外接正矩形。以此作为首次粗飞的区域。[0061]根据在“空中画师”系统中确定的粗飞航线高度h、飞行速度v、航线重叠率α、旁向重叠率β以及无人机机载相机的内参——焦距f和传感器长画幅长度l和短画幅长度w确定无人机拍摄照片的时间间隔△t和栅栏式航线的航线间距△s分别为:[0062][0063][0064]基于上述计算生成的栅栏式轨迹,应用路径点间隔△τ对每一分段轨迹进行路径点划定,得到最终的waypoint点集,“空中画师”系统将此waypoint点集按序发送给无人机执行。[0065]根据按序接收到的图片it(t=1,2,...,n),从exif头中获取图片的经纬度信息gpst(t=1,2,...,n),对任意t时刻接收到的图片it,根据经纬度信息计算其与之前接收到的图片之间的距离disi(i=1,2,...,t-1),并从中找出距离最近的三张图片ij,ik,il。[0066]计算it,ij,ik,il的sift特征点,首先获取每张图片的灰度图i(x,y),根据高斯函数g(x,y,σ)生成图像金字塔其中σ为高斯函数的模糊系数,基于高斯金字塔g(x,y,σ)构建差分金字塔d(x,y,σ),在差分金字塔中初步极值检测,并在检测到的极值点附近对其泰勒展开进行拟合来亚像素定位。由特征点空间位置(x,y,σ)回至金字塔中在特征点附近取样一小区域进行特征点主方向θ确定以及梯度直方图统计生成描述子,并对描述子进行归一化,形成最终描述向量。[0067]对参考图it和观测图ij,ik,il进行关键点匹配,定义模板图中的关键点描述子rt=(rt1,rt2,...,rt128)和观测图中的关键点描述子sμ=(sμ1,sμ2,...,sμ128),μ∈{j,k,l},计算任意两描述子相似性度量μ∈{j,k,l},只有d(ri,sμ)中最近点和次近点的距离小于某个阈值才能满足匹配。为了进一步减少误匹配的情况,根据图像特征匹配信息构造匹配图,具体做法为当某对匹配图片的特征点大于设定的阈值时在两张图片之间建立一条边,如此往复,再利用最大联通分量算法求解整个匹配图的最大联通分量得到最佳匹配方案。[0068]采用ransac算法剔除上述步骤中的误匹配点,首先随机抽出4个不共线的样本数据,根据这4个匹配点计算出变换矩阵h,计算数据集中所有数据在当前变换矩阵h下的投影误差,若误差小于设定的阈值则可以加入满足当前变换矩阵的一致集consensus,并返回一致集中的元素个数,根据当前一致集中元素个数判断是否为最优一致集,若是则更新最优一致集,同时更新迭代次数k,如果迭代次数大于k则退出,否则继续迭代。[0069]假设在m张无人机遥感影像中总共可以找到n组sift特征匹配。第i幅对于选定的参考图像变换矩阵为hi,其对应的列向量为xi,定义则通过优化目标函数:[0070][0071]来实现减少大范围多幅拼接可能会出现的累积误差。其中ei=xmpi,m-xnpi,n,ri=xrefpi,ref-pi,ref,pi,m为第i组匹配图像m中的特征点坐标,ref为随机确定的参考图像的编号。[0072]根据得到的每张图片的变换矩阵hi后即可将所有图片映射到最终的融合图成像空间上,为了减小拼接处的模糊现象,本发明采用拉普拉斯融合,由于拉普拉斯融合需要多尺度融合,消耗内存较大,为了解决该问题,在图像融合前先对所有图片进行预处理,经过变换矩阵hi映射后的图片如果与其它映射后的图片重叠率超过指定阈值thresh则去除该图片。对于重叠率小于thresh的重叠图片的重叠部分,只保留距离图像边界最小值的最大值所对应的图像的像素值。[0073]经过预处理后,建立图像的拉普拉斯金字塔lp(x,y,n)和高斯金字塔g(x,y,n+1),求掩膜图像的高斯金字塔gmask(x,y,n+1);对图像的拉普拉斯金字塔进行拼接:在每一层上将图像透过掩膜的部分拼接得到结果的拉普拉斯金字塔;计算结果的图像金字塔顶层:将每张图像的高斯金字塔顶层透过对应掩膜金字塔顶层的部分拼接,从结果的图像金字塔顶层开始,将结果的拉普拉斯金字塔的每一层相加然后上采样,最后得到融合结果,如图4所示。[0074]记每张图片ii(x,y)(x∈[0,m),y∈[0,n))的经纬度信息为gpsi=(longi,lati),在粗飞阶段,无人机的摄像头数值向下,因此可以假设在原图ii中,处的经纬度坐标为gpsi=(longi,lati),利用优化计算出的变换矩阵hi就可以得到在融合图中处的经纬度坐标为gpsi=(longi,lati),对一系列像素坐标位置和经纬度坐标值(xi,yi,gpsi)利用最小二乘法拟合平面得到经度平面方程long(x,y)和纬度平面方程lat(x,y),如图5所示。[0075]s3:基于深度学习的单目图像深度估计模型,将步骤s2获得的全局拼接图片作为输入,得到拼接图像的深度图;其具体实现步骤如下:[0076]步骤s31:将步骤s2得到的拼接图片作为输入,进行一次普通的7*7卷积操作,并将图片通道数调整为64通道,进行批量归一化与relu激活;[0077]步骤s32:将所得特征图featuremap1进行最大池化操作后传入残差块中,得到通道数为256的特征图featuremap2;将所得所得特征图featuremap2传入残差块中,得到通道数为512的特征图featuremap3;将所得特征图featuremap3传入残差块中,得到通道数为1024的特征图featuremap4;将所得特征图featuremap4传入残差块中,得到通道数为2048的特征图featuremap5;将featuremap5输入,进行上采样恢复至featuremap4尺寸称为featuremap5’,然后将featuremap4和featuremap5’进行特征融合后生成的特征图称为featuremap45,再进行卷积操作后,输出估计的视差图disparity1,再将featuremap45作为输入,之后不断重复上述操作,分别生成不同尺度深度图disparity2、disparity3以及disparity4作为深度估计网络的输出;[0078]步骤s33:构建位姿估计网络的编解码结构;输入两张图片,进行一次普通的7*7卷积操作,并将图片通道数调整为64通道,进行批量归一化与relu激活;将所得特征图featuremap1进行最大池化操作后传入残差块中,得到通道数为64的特征图featuremap2;将所得特征图featuremap2传入残差块中,得到通道数为128的特征图featuremap3;将所得特征图featuremap3传入残差块中,得到通道数为256的特征图featuremap4;将所得特征图featuremap4传入残差块中,得到通道数为512的特征图featuremap5;将featuremap5输入,使用1*1卷积改变通道数为256,之后使用relu函数激活得到特征图featuremap6;对featuremap6使用3*3*256卷积操作提取特征输出featuremap7;对featuremap7使用3*3*256卷积操作提取特征输出featuremap8;对featuremap8使用1*1卷积改变特征图通道数为6输出featuremap9;对featuremap9的第二维度和第三维度求平均值,则变换维度生成一个形状为[4,6]的向量,该向量为相邻帧的相对相机位姿变化;[0079]步骤s34:对经步骤s31与步骤s32建立的神经网络模型进行训练及调优;将数据集打乱,生成训练样本和测试样本;获取预训练权重;使用adam优化器,训练过程中学习率自动下降;每个epoch之后计算训练损失以及验证损失;比较每个epoch的验证损失,保存验证损失最小的模型参数;[0080]步骤s35:将测试图像输入网络,得到深度估计结果,计算深度估计的评价指标中各个损失以及准确率,对网络性能进行评估。[0081]s4:根据步骤s3中得到的深度图,获取全局场景下高度较高的区域作为重点区域,对重点区域生成倾斜摄影轨迹,并联合步骤2中生成的全局正摄轨迹实现第二轮精飞的多机轨迹分配,其示意图如图6所示,所述步骤具体包括:[0082]步骤s41:根据步骤s3中得到的深度图,获取重点区域的最小外接矩形,其四个顶点在拼接图像上的像素坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),利用步骤s2中获取的经度平面方程long(x,y)和纬度平面方程lat(x,y),得到重点区域四个顶点处的经纬度,通过航线间隔flyspace获取该重点区域的多组外扩矩形,生成针对建模区域矩形每条边的覆盖面轨迹(区域正上空),如图7所示。应用路径点间隔actspace对每一分段轨迹进行路径点划定从而获得最终点集;[0083]步骤s42:将倾斜摄影轨迹与正视轨迹点集组合为点集s,无人机数量为k,使用k聚类算法对点集划分类别,以轨迹点之间的空间距离作为相似性衡量指标,聚类的目标是使得聚类平方和尽可能地小,其中k是总类别数,nk是每一类地轨迹点数量,uk是每一类地中心点,为了保证每架无人机的任务尽可能地均衡,将聚类目标更新为聚类过程如图8所示;[0084]步骤s43:将每一类点集建模为tsp问题,让每架无人机能够经过某一类点集的所有轨迹点,以保证所拍摄的照片能够覆盖整个场景,利用改良的贪心算法求解每一类的最短路径,将其存储为顺序点集,保存为步骤1中couas可以读取的taskfile;[0085]步骤s44:无人机按分配路线执行飞行并获取图片信息,根据无人机航拍的影像建立待搜救区域的三维建模。[0086]在步骤s4中规划出多机协同飞行路径后,无人机实时回传影像到“空中画师”系统平台,“空中画师”系统平台通过接口与三维重建软件对接,开始实时建模,无人机任务执行完成后即可获得整个区域的三维模型。从三维模型中可以获取整个区域地形地貌较为详细的情况,救援团队基于此制定详细的搜救路线。[0087]需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。
图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
面向野外山林环境搜救的多机协同三维建模系统及方法
作者:admin
2022-09-27 21:05:48
809
关键词:
计算;推算;计数设备的制造及其应用技术
专利技术
- 下一篇: 存储器系统、存储器系统的控制方法及主机装置与流程
- 上一篇: 打磨组件及打磨机器人的制作方法