计算;推算;计数设备的制造及其应用技术1.本技术涉及计算机视觉技术领域,尤其涉及一种对象追踪、地物追踪方法、设备、系统及存储介质。背景技术:2.现如今,卫星遥感影像分析技术不断发展,在环境监测、基础设施发展监测以及灾害响应等场景中得到了广泛应用。在遥感影像分析技术中,可基于多时相遥感影像提供的丰富的数据,对指定区域进行变化检测以及地物追踪。3.目前,存在一种基于cnn(convolutional neural networks,卷积神经网络)对遥感影像进行变化检测的方案。在这种方案中,可基于cnn网络对遥感影像进行特征提取,并基于提取到的特征输出遥感影像对应的二分类的变化检测结果。但是,这种检测方案未能充分利用遥感影像包含的信息,不易提升最终的变化检测结果的准确性。因此,有待提出一种新的解决方案。技术实现要素:4.本技术的多个方面提供一种对象追踪、地物追踪方法、设备、系统及存储介质,用以提升对象追踪结果的准确性。5.本技术实施例提供一种对象追踪方法,包括:获取对目标环境进行拍摄得到的两时相图像;根据所述两时相图像的图像特征,确定所述两时相图像中的至少一个候选区域各自的特征图;根据所述至少一个候选区域的特征图,对所述两时相图像进行实例分割,得到所述两时相图像包含的至少一个追踪对象;以及,根据所述至少一个候选区域的特征图,对所述两时相图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态;根据所述至少一个追踪对象各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个追踪对象各自的变化状态。6.本技术实施例还提供一种地物追踪方法,包括:获取对目标环境进行拍摄得到的两时相遥感图像;根据所述两时相遥感图像的图像特征,确定所述两时相遥感图像中的至少一个候选区域各自的特征图;根据所述至少一个候选区域的特征图,对所述两时相遥感图像进行实例分割,得到所述两时相遥感图像包含的至少一个地面物体;以及,根据所述至少一个候选区域的特征图,对所述两时相遥感图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态;根据所述至少一个地面物体各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个地面物体各自的变化状态。7.本技术实施例还提供一种电子设备,包括:存储器和处理器;所述存储器用于存储一条或多条计算机指令;所述处理器用于执行所述一条或多条计算机指令以用于执行本技术实施例提供的方法中的步骤。8.本技术实施例还提供一种存储有计算机程序的计算机可读存储介质,计算机程序被处理器执行时能够实现本技术实施例提供的方法中的步骤。9.本技术实施例提供的对象追踪方法中,通过对两时相图像进行实例分割,可细致地检测出两时像图像中的追踪对象;通过对两时相图像对应的像素坐标进行变化检测,可获取到像素级别的变化状态检测结果。基于分割得到的追踪对象以及像素级别的变化状态检测结果,可准确地获取到两时相图像中的追踪对象的变化状态,提升对象追踪结果的准确性和可靠性。附图说明10.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本技术的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:11.图1为本技术一示例性实施例提供的对象追踪方法的流程示意图;12.图2为本技术一示例性实施例提供的神经网络模型的结构示意图;13.图3为本技术另一示例性实施例提供的神经网络模型的结构示意图;14.图4为本技术一示例性实施例提供的地物追踪方法的流程示意图;15.图5为本技术一示例性实施例提供的电子设备的结构示意图。具体实施方式16.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术具体实施例及相应的附图对本技术技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。17.针对现有技术中无法充分利用遥感影像包含的信息,不易提升最终的变化检测结果的准确性的技术问题,在本技术一些实施例中,提供了一种解决方案,以下结合附图,详细说明本技术各实施例提供的技术方案。18.图1为本技术一示例性实施例提供的对象追踪方法的流程示意图,如图1所示,该方法包括19.步骤101、获取对目标环境进行拍摄得到的两时相图像。20.步骤102、根据所述两时相图像的图像特征,确定所述两时相图像中的至少一个候选区域各自的特征图。21.步骤103、根据所述至少一个候选区域的特征图,对所述两时相图像进行实例分割,得到所述两时相图像包含的至少一个追踪对象。22.步骤104、根据所述至少一个候选区域的特征图,对所述两时相图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态。23.步骤105、根据所述至少一个追踪对象各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个追踪对象各自的变化状态。24.其中,对象追踪,指的是对不同时间获取到的图像中的同一对象的变化历程进行跟踪。25.其中,目标环境,可包括运动场馆、工厂、博物馆、商超等室内场所,也可包括街区、郊外、田野、乡村、公路等任意的室外地面环境。26.其中,两时相图像,可包括在不同时刻获取到的同一目标环境的一组影像。27.其中,两时相图像的图像特征,可通过对两时相图像进行特征提取操作得到。提取到的图像特征可包括两时相图像的颜色、纹理、形状、空间关系等特征,还可包括两时相图像的高层级的语义特征。其中,高层级的语义特征包含较多的全局信息,可为对象追踪提供丰富的信息。28.其中,两时相图像中的候选区域,指的是两时相图像中可能包含追踪对象的区域,可通过对两时相图像进行区域生成操作得到该至少一个候选区域。其中,区域生成操作,是指根据两时相图像的图像特征,从两时相图像中提取可能感兴趣区域,该感兴趣的区域,可能包含追踪对象。29.在一些实施例中,根据两时相图像的图像特征,从两时相图像中提取候选区域时,可按照以固定比例预定义的基础检测框(anchors,锚)在两时相图像的特征图中选择建议的感兴趣区域(region proposals)。接下来,通过逻辑回归算法(例如softmax)判断基础检测框选定的区域属于追踪对象的概率,并用采用边框回归(bounding box regression)算法修正基础检测框,得到精确的候选框。30.确定候选框后,可从两时相图像的特征图中,确定候选区域的特征图,并根据候选区域的区域特征,进一步对候选区域对应的追踪对象进行检测。31.在本实施例中,对追踪对象进行检测,包括:从两时相图像中分割出追踪对象,并检测追踪对象在两时相图像对应的不同拍摄时刻是否产生变化。32.其中,实例分割(instance segmentation),是指通过分割算法,逐像素地预测出图像中的每一个像素点的类别标签,即每一个像素点所属的实例类别,并同时区分出输入图像中同一实例类别的不同个体。33.在本实施例中,基于两时相图像中的至少一个候选区域的特征图,可对两时相图像进行实例分割,得到两时相图像包含的至少一个追踪对象。该实例分割结果既包含每个追踪对象的实例类别,也可将同一实例类别的不同追踪对象个体分割出来。34.例如,目标场景实现为街区时,通过实例分割,可从街区的图像中,分割出街区中的不同实例类别的物体以及每一种实例类别的不同物体,例如,可分割出每一幢房屋、每一条道路、每一辆车等。35.其中,变化检测,是指通过变化检测算法,对不同时刻拍摄到的图像中像素坐标相同的像素点进行分析,以确定在不同时刻每个像素坐标的变化状态。36.在本实施例中,两时相图像具有相同的尺寸以及分辨率,因而两时相图像的像素坐标相对应,即:两时相图像对应多个相同的像素坐标,以下称为两时相图像对应的多个像素坐标。例如,以矩阵k1表示两时相图像中的第一图像,以矩阵k2表示两时相图像中的第二图像时,k1、k2均为m*n的矩阵,m表示像素行数,n表示像素列数,m、n为正整数。k1、k2对应m*n个像素坐标。37.基于两时相图像中的至少一个候选区域的特征图,可对两时相图像对应的多个像素坐标进行变化检测,即检测同一像素坐标在不同时刻拍摄到的图像中的差异,得到该多个像素坐标各自对应的变化状态。38.继续以目标场景实现为街区为例,针对两时相街区图像中的图1以及图2,假设,在图1中,像素坐标为p0的像素点属于背景区域,在图2中,像素坐标为p0的像素点属于前景区域,则可认为像素坐标p0为发生变化的像素坐标。若图1的拍摄时刻早于图2,则可认为像素坐标p0发生了新增变化。反之,若图2的拍摄时刻早于图1,则可认为像素坐标p0发生了消失变化。若在图1以及图2中,像素坐标为p1的两个像素点均属于背景区域或均属于前景区域,则可确定像素坐标p1未发生变化。39.像素坐标在不同时刻拍摄到的图像中产生的变化,可反映像素坐标对应的真实空间产生的变化。40.综合分割出的每个追踪对象对应的像素坐标以及两时相图像对应的多个像素坐标各自的变化状态,可确定两时相图像中每个追踪对象的变化状态。基于每个追踪对象的变化状态以及实例分割结果包含的每个追踪对象的实例类别,可实现对追踪对象进行追踪。41.在本实施例中,通过对两时相图像进行实例分割,可细致地检测出两时像图像中的追踪对象;通过对两时相图像对应的像素坐标进行变化检测,可获取到像素级别的变化状态检测结果。基于分割得到的追踪对象以及像素级别的变化状态检测结果,可准确地获取到两时相图像中的追踪对象的变化状态,提升对象追踪结果的准确性和可靠性。42.在一些示例性的实施例中,本技术实施例提供的对象追踪方法,可通过神经网络模型实现,该神经网络模型可实现为基于mask-rcnn(mask-region-cnn,一种用于预测区域的蒙版的卷积神经网络)的多任务网络。以下将进行示例性说明。43.图2为本技术一示例性实施例提供的神经网络模型的结构示意图,如图2所示,该神经网络模型包括主干网络(backbone)以及与主干网络连接的多任务网络,其中,该多任务网络包括:实例分割网络以及变化检测网络。其中,主干网络用于根据输入的图像,输出区域特征图。实例分割网络和变化检测网络,可共享主干网络输出的区域特征图。44.在一些示例性实施例中,输入神经网络模型的图像,可包含两时相图像以及两时相图像的差值特征图。以下将进行示例性说明。45.为便于描述和区分,将两时相图像描述为在不同时刻对目标环境进行拍摄得到的第一图像和第二图像。46.可选地,可对该第一图像和该第二图像中像素坐标相同的像素点进行像素值的差运算,得到差值特征图。当以矩阵k1表示第一图像,以矩阵k2表示第二图像时,计算差值特征图的过程可描述为:△k=k2-k1,k1、k2以及△k均为m*n的矩阵。47.接下来,将该第一图像、该第二图像以及该差值特征图进行连接(concat),得到多通道图像。其中,第一图像、第二图像以及差值特征图分别包含r(红)、g(绿)、b(蓝)三个颜色通道,故而拼接得到的多通道图像为9通道图像。48.接下来,将该多通道图像输入神经网络模型。在该神经网络模型中,可利用该神经网络模型中的主干网络对该多通道图像进行特征提取操作,得到该多通道图像的特征图;根据该多通道图像的特征图进行区域生成操作,得到至少一个候选区域,并通过区域特征聚集操作,得到该至少一个候选区域的特征图。49.可选地,如图3所示,主干网络可包括:特征提取网络、区域生成网络以及区域特征聚集层。其中,对该多通道图像进行特征提取操作,得到该多通道图像的特征图的步骤,可基于特征提取网络实现。可选地,该特征体提取网络可实现为卷积神经网络(cnn),例如,可包括但不限于vgg、resnet等网络。50.其中,根据两时相图像的特征图进行区域生成操作的步骤,可基于rpn(regionproposal network,区域生成网络)实现。rpn可按照以固定比例预定义的基础检测框(anchors)在两时相图像的特征图中选择建议的感兴趣区域(region proposals),通过softmax判断基础检测框选定的区域属于前景追踪对象的概率,并用采用边框回归(bounding box regression)算法修正基础检测框获得精确的候选框。51.基于rpn网络确定精确的候选框后,可基于区域特征聚集层,从两时相图像的特征图中,确定候选区域的特征图。其中,该区域特征聚集层,可基于roialign算法实现,本实施例不做赘述。52.基于图2以及图3示意的神经网络,可充分使用两时相图像包含的信息。同时,输入神经网络模型的多通道图像包含差值特征图,该差值特征图用于表达第一图像和第二图像中发生变化的像素坐标。基于神经网络模型对差值特征图进行进一步特征提取,可充分利用发生变化的像素的语义特征等高级特征,更好地提取变化特征,有利于实现更精确的变化检测。53.在一些示例性的实施例中,根据该两时相图像的图像特征,确定该两时相图像包含的至少一个候选区域各自的特征图之前,可进一步对第一图像和第二图像进行预处理,以降低其他因素对变化检测造成的干扰。54.可选地,针对该两时相图像中的第一图像和第二图像,获取该第一图像和该第二图像各自的直方图;根据该第一图像的直方图,对该第二图像的直方图进行变换,以均衡该第一图像和该第二图像的亮度信息。在进行上述直方图变换后,可执行计算第一图像和第二图像的差值特征图的操作。基于这种实施方式,可排除光照差异对不同时刻拍摄得到的第一图像和第二图像造成的差异,进一步提升变化检测结果的准确性。55.图2所示的实例分割网络,可根据主干网络输出的至少一个候选区域的特征图,对该两时相图像进行实例分割,得到该两时相图像包含的至少一个追踪对象。56.在一些示例性的实施例中,如图3所示,该实例分割网络可包括:分类分支以及分割分支。57.可选地,基于该分类分支,可根据该至少一个候选区域的特征图,识别该至少一个候选区域各自对应的追踪对象的实例类别。例如,两时相图像为拍摄街区得到的图像时,该实例类别可包括:房屋类别、道路类别、车辆类别、行人类别、植物类别等等。58.在一些情况下,当主干网络输出的多个候选区域的特征图时,该多个候选区域中的一部分候选区域位于两时相图像中的第一图像,另一部分候选区域位于两时相图像中的第二图像。分类分支,可输出第一图像包含的候选区域对应的追踪对象的实例类别,并输出第二图像包含的候选区域对应的追踪对象的实例类别。59.例如,第一图像包含候选区域1、候选区域2以及候选区域3。第二图像包含候选区域4以及候选区域5。分类分支可根据候选区域1、候选区域2以及候选区域3各自的特征图,在第一图像上输出候选区域1对应的追踪对象为房屋、候选区域2对应的追踪对象为车辆、候选区域3对应的追踪对象为行人。分类分支可根据候选区域4、候选区域5各自的特征图,在第二图像上输出候选区域4对应的追踪对象为房屋、候选区域5对应的追踪对象为车辆。60.可选地,基于该分割分支,可根据该至少一个候选区域的特征图,计算该至少一个候选区域各自对应的追踪对象的像素坐标。61.在一些情况下,当主干网络输出的多个候选区域的特征图时,该多个候选区域中的一部分候选区域位于两时相图像中的第一图像,另一部分候选区域位于两时相图像中的第二图像。分割分支可分别输出第一图像包含的追踪对象的像素坐标以及第二图像包含的追踪对象的像素坐标。62.以下将以两时相图像中的第一图像为例,对分割网络的分割操作进行示例性说明。63.可选地,可从该至少一个候选区域中,确定第一图像包含的目标候选区域。该目标候选区域,可包括一个候选区域或者多个候选区域。基于分割分支,可根据目标候选区域的特征图,计算目标候选区域中的每一像素点属于追踪对象的概率。根据目标候选区域中的每一像素点属于追踪对象的概率,可确定目标候选区域对应的追踪对象的像素坐标。根据该追踪对象的像素坐标,可精确地确定追踪对象的位置信息。进而,可采用多边形的轮廓,从第一图像中分割出追踪对象。64.通常,针对目标候选区域中的一像素点而言,若该像素点属于追踪对象的概率大于设定的第一概率阈值,可确定该像素点对应属于追踪对象。其中,该第一概率阈值可根据需求进行设置,例如可设置为60%、80%、90%或者其他可选的数值,本实施例不做限制。65.可选地,分割分支计算得到每个候选区域对应的追踪对象的像素坐标后,可根据第一图像以及第二图像各自包含的追踪对象的像素坐标,输出第一图像以及第二图像各自的实例分割蒙版(mask)。66.其中,针对每张图像而言,若分割分支分割出该图像中的多种实例类别的追踪对象,则分割分支可输出该多种实例类别各自对应的实例分割蒙版。其中,每种实例类别对应一个实例分割蒙版。也就是说,当分割分支对m种实例类别的追踪对象进行分割时,可针对待分割的图像输出m个实例分割蒙版,m为正整数。其中,每一种实例类别对应的实例分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于该实例类别的追踪对象的概率。67.以下将结合具体的例子对实例分割蒙版进行示例性说明。68.假设,分割分支可分割出房屋、车辆以及道路等三种实例类别的追踪对象,即m=3。针对两时相图像中的任一图像,分割分支可输出该图像的三通道的分割蒙版。其中,第一个通道的分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于房屋类别的概率;第二个通道的分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于车辆类别的概率;第一个通道的分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于车辆类别的概率;第三个通道的分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于道路类别的概率。69.可选地,若像素坐标属于某一实例类别的追踪对象的概率大于设定的第一概率阈值,则可在实例分割蒙版中确定该像素坐标存放的值为1,否则,在实例分割蒙版中确定该像素坐标存放的值为0,进而得到该实例类别对应的二值的实例分割蒙版。70.图2示意的变化检测网络,可根据主干网络输出的至少一个候选区域的特征图,对该两时相图像对应的多个像素坐标进行变化检测,得到该多个像素坐标各自对应的变化状态。71.可选地,基于该变化检测网络,可根据该至少一个候选区域的特征图,计算两时相图像对应的多个像素坐标分别属于至少一种变化状态的概率。根据该多个像素坐标分别属于至少一种变化状态的概率,可输出多个像素坐标各自对应的变化状态。72.在一些实施例中,可通过变化蒙版来描述多个像素坐标各自对应的变化状态。当变化检测网络可检测n种变化状态时,可输出该多个像素对应的n个变化蒙版,n为正整数。其中,每种变化状态对应一个变化蒙版。其中,任一种变化状态对应的实例分割蒙版中,每个像素坐标存放的值,用于表示该像素坐标属于该变化状态的概率。73.可选地,该至少一种变化状态可包括:新增状态、消失状态以及不变状态中的至少一种。74.当该至少一种变化状态包括新增状态、消失状态以及不变状态时,n=3,变化检测网络可输出三通道的变化蒙版,即:新增状态对应的变化蒙版1、消失状态对应的变化蒙版2以及不变状态对应的变化蒙版3。75.其中,变化蒙版1中的每个像素坐标存放的值,用于表示该像素坐标属于新增状态的概率;变化蒙版2中的每个像素坐标存放的值,用于表示该像素坐标属于消失状态的概率;变化蒙版3中的每个像素坐标存放的值,用于表示该像素坐标属于不变状态的概率。76.可选地,若像素坐标属于某一变化状态的概率大于设定的第二概率阈值,则可在该变化状态对应的变化蒙版中确定该像素坐标存放的值为1,否则,在该变化蒙版中确定该像素坐标存放的值为0,进而得到该变化状态对应的二值的变化蒙版。其中,该第二概率阈值可根据需求进行设置,例如可设置为60%、80%、90%或者其他可选的数值,本实施例不做限制。77.基于上述实施方式,神经网络模型可集成分割任务和变化检测任务,基于一个端到端的神经网络模型,即可获取细致的变化检测结果以及精确的对象分割结果。78.基于上述实施例,可获取实例分割网络输出的两时相图像中的至少一个追踪对象各自的实例类别以及至少一个追踪对象各自的像素坐标;并可获取到变化检测网络输出的两时相图像对应的多个像素坐标的各自变化状态。将上述多种输出信息进行对比,即可确定该至少一个追踪对象各自的变化状态。79.以该至少一个候选区域中的任一候选区域为例,可从该至少一个候选区域各自对应的追踪对象的像素坐标中,确定该候选区域对应的目标追踪对象的像素坐标。接下来,根据该目标追踪对象的像素坐标以及两时相图像对应的多个像素坐标各自对应的变化状态,确定该目标追踪对象对应的像素坐标的变化状态,即目标追踪对象的变化状态。同时,可从该至少一个候选区域各自对应的追踪对象的实例类别中,确定该目标追踪对象的实例类别,并输出该目标追踪对象的变化状态以及实例类别。80.同理,可基于上述方式,输出每个候选区域对应的追踪对象的变化状态和实例类别,进而实现基于两时相图像的对象追踪操作。81.例如,针对拍摄街区得到的两时相图像,可输出消失状态的房屋1、新增状态的房屋2、不变状态的公路1、新增状态的车辆1、消失状态的车辆2等等对象追踪信息。82.当实例分割网络以及变化检测网络的输出结果采用蒙版进行表示时,实例分割网络可输出第一图像的m个实例分割蒙版以及第二图像的m个实例分割蒙版,变化检测网络输出两时相图像对应的多个像素坐标的n个变化蒙版。83.接下来,将第一图像的m个实例分割蒙版分别与n个变化蒙版进行叠加,即可确定第一图像中的追踪对象各自的变化状态。同理,将第二图像的m个实例分割蒙版分别与n个变化蒙版进行叠加,即可确定第二图像中的追踪对象各自的变化状态。84.以下将结合具体的例子进行示例性说明。假设m=1,n=3。85.假设,第一图像的实例分割结果中,房屋类别的追踪对象1的像素坐标为{p1},房屋类别的追踪对象2的像素坐标为{p2}。即,第一图像的分割蒙版中,像素坐标{p1}以及像素坐标{p2}存放的值为1,其余像素坐标存放的值为0。86.假设,第二图像的实例分割结果中,房屋类别的追踪对象3的像素坐标为{p3},房屋类别的追踪对象4的像素坐标为{p4}。即,第二图像的分割蒙版中,像素坐标{p3}以及像素坐标{p4}存放的值为1,其余像素坐标存放的值为0。87.假设,第一变化蒙版中,像素坐标{p1}、{p3}的变化状态为不变状态。即,第一变化蒙版中,像素坐标{p1}、{p3}存放的值为1,其余像素坐标存放的值为0。那么,将第一图像的分割蒙版和第一变化蒙版进行叠加,可确定房屋类别的追踪对象1为不变的追踪对象。88.假设,第二变化蒙版中,像素坐标{p2}的变化状态为消失状态。即,第二变化蒙版中,像素坐标{p2}存放的值为1,其余像素坐标存放的值为0。那么,将第一图像的分割蒙版和第二变化蒙版进行叠加,可确定房屋类别的追踪对象2为消失的追踪对象。89.假设,第三变化蒙版中,像素坐标{p4}的变化状态为新增状态。即,第三变化蒙版中,像素坐标{p4}存放的值为1,其余像素坐标存放的值为0。那么,将第一图像的分割蒙版和第三变化蒙版进行叠加,可确定房屋类别的追踪对象4为新增的追踪对象。90.需要说明的是,本技术上述以及下述各实施例提供的神经网络模型,可基于多组训练数据训练得到。其中,每组训练数据包括两时相样本图像,每张样本图像上标注有追踪对象的类别标签以及该追踪对象的多边形轮廓。91.获取到多组训练数据后,可将该多组训练数据输入该图2以及图3所示神经网络模型,以对该神经网络模型进行迭代训练。92.其中,样本图像上标注的追踪对象的类别标签和多边形轮廓可直接作为图2以及图3所示的实例分割网络的监督信号。93.其中,化检测网络的监督信号,可基于两时样本相图像之间的标注差异以及两时样本相图像的拍摄顺序计算得到。94.可选地,针对两时相样本图像中拍摄时刻较早的第一样本图像以及拍摄时刻较晚的第二样本图像而言,若第一样本图像和第二样本图像中,相同的像素坐标对应相同的标注值时,可将该像素坐标标记为未发生变化的像素坐标。95.针对一像素坐标,若该像素坐标在第一样本图像中位于追踪对象的多边形轮廓之外,但在第二样本图像中位于追踪对象的多边形轮廓之内,则将该像素坐标标记为发生新增变化的像素坐标。反之,若该像素坐标在第一样本图像中位于追踪对象的多边形轮廓之内,但在第二样本图像中位于追踪对象的多边形轮廓之外,则将该像素坐标标记为发生消失变化的像素坐标。96.基于标记过程,可确定训练数据中的每个像素坐标的变化状态真值。在这种通过已有标注值计算变化状态的真值的方式,可避免增加标注工作量,提升训练效率。97.将多组训练数据输入神经网络模型之后,可将样本图像上标注的追踪对象的类别标签和多边形轮廓以及该多个像素坐标各自的变化状态真值作为监督信号,对神经网络模型进行迭代训练。98.在每一轮训练中,将该训练数据输入神经网络模型之后,可获取神经网络针对训练数据输出的追踪对象的预测类别、预测轮廓以及预测变化状态。99.根据该训练数据对应的追踪对象的预测类别和预先标注的类别标签,可计算该神经网络模型的分类损失。根据训练数据对应的追踪对象的预测轮廓以及预先标注的多边形轮廓,可计算该神经网络模型的分割损失。根据训练数据各自对应的追踪对象的预测变化状态以及通过上述方式计算得到的每个追踪对象的变化状态真值,计算该神经网络模型的变化检测损失。100.接下来,可根据分类损失、分割损失以及变化检测损失的联合损失,对神经网络模型的参数进行优化。上述优化过程可以迭代进行,直至满足设定的迭代次数或者上述联合损失收敛至指定的范围。101.在这种训练方式中,基于多任务网络的联合损失对该神经网络模型进行优化,可极大提升神经网络模型中的主干网络的性能,以最终优化神经网络模型的对象追踪性能。102.本技术实施例提供的对象追踪方法,可应用在多种对象追踪场景。例如,运动比赛中的运动对象追踪场景、基于遥感影像的地物追踪场景、特定场所中的人群追踪场景、特定区域中的环境变化检测场景等等。103.在基于遥感影像的地物追踪场景中,获取到的目标环境的两时相图像可包括:该目标环境对应的两时相遥感图像。104.在基于遥感影像的地物追踪场景中,本技术实施例提供的对象追踪方法,可实现为地物追踪方法,以下将进行示例性说明。105.图4为本技术一示例性实施例提供的地物追踪方法的流程示意图,如图4所示,该方法包括106.步骤401、获取对目标环境进行拍摄得到的两时相遥感图像。107.步骤402、根据所述两时相遥感图像的图像特征,确定所述两时相遥感图像中的至少一个候选区域各自的特征图。108.步骤403、根据所述至少一个候选区域的特征图,对所述两时相遥感图像进行实例分割,得到所述两时相遥感图像包含的至少一个地面物体。109.步骤404、根据所述至少一个候选区域的特征图,对所述两时相遥感图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态。110.步骤405、根据所述至少一个地面物体各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个地面物体各自的变化状态。111.其中,两时相遥感图像,是指在两个不同时刻采用遥感卫星对同一目标环境采集到的图像。地物追踪,指的是对不同时间获取到的遥感图像中的同一地面物体的变化历程进行跟踪,该地面物体可包括:建筑、道路等。112.本实施例提供的地物追踪方法,可基于图2以及图3示意的神经网络模型实现。113.在一些可选的实施例中,神经网络模型的输入数据为多通道图像,该多通道图像包括两时相遥感图像以及两时相遥感图像的差值特征图。基于该多通道图像,神经网络模型可充分利用遥感图像包含的影像信息,并关注差值特征图中发生变化的像素的高级语义特征,进一步丰富了用于实现地物追踪的图像特征,提升后续地物追踪结果的准确性。114.其中,在计算两时相遥感图像的差值特征图之前,可以将第二个时相的图像的直方图作为基准,对第一个时相的图像的直方图进行变换,以均衡两个时向的图像的光照,降低拍摄条件对后续计算结果的影响。115.在一些可选的实施例中,图2以及图3示意的主干网络,可对输入的多通道图像进行特征提取,得到多通道图像的特征图。基于多通道图像的特征图,可进行区域生成操作和区域特征聚集操作,得到两时相遥感图像包含的至少一个候选区域各自的特征图。116.在一些可选的实施例中,图2以及图3示意的分割网络,可根据两时相遥感图像包含的至少一个候选区域各自的特征图,对两时相遥感图像进行实例分割,输出两时相遥感图像中的地面物体的类别以及地面物体对应的像素坐标。117.在一些可选的实施例中,图2以及图3示意的变化检测网络,可输出多通道的变化状态检测结果。可选地,该多通道的变化状态检测结果,可包括两时相遥感图像中的像素坐标在新增状态、不变状态以及消失状态等三个变化状态分类中的结果。118.接下来,将将分割网络的输出结果,分别与变化检测网络的输出多通道的变化状态检测结果进行比对,可得到两时相遥感图像中新增的地物目标、不变的地物目标以及消失的地物目标。119.需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤401至步骤404的执行主体可以为设备a;又比如,步骤401和402的执行主体可以为设备a,步骤203的执行主体可以为设备b;等等。120.另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如401、402等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。121.图5示意了本技术一示例性实施例提供的电子设备的结构示意图,该电子设备可实现为服务器,例如可实现为常规服务器、云服务器、云主机、虚拟中心等服务器等设备。如图5所示,该电子设备可包括存储器501以及处理器502。122.存储器501,用于存储计算机程序,并可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。123.其中,存储器501可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。124.处理器502,与存储器501耦合,用于执行存储器501中的计算机程序,以用于:获取对目标环境进行拍摄得到的两时相图像;根据所述两时相图像的图像特征,确定所述两时相图像中的至少一个候选区域各自的特征图;根据所述至少一个候选区域的特征图,对所述两时相图像进行实例分割,得到所述两时相图像包含的至少一个追踪对象;以及,根据所述至少一个候选区域的特征图,对所述两时相图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态;根据所述至少一个追踪对象各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个追踪对象各自的变化状态。125.进一步可选地,处理器502在至少一个候选区域各自的特征图根据所述两时相图像的图像特征,确定所述两时相图像中的至少一个候选区域各自的特征图之前,还用于:针对所述两时相图像中的第一图像和第二图像,获取所述第一图像和所述第二图像各自的直方图;根据所述第一图像的直方图,对所述第二图像的直方图进行变换,以均衡所述第一图像和所述第二图像的亮度信息。126.进一步可选地,处理器502在至少一个候选区域各自的特征图根据所述两时相图像的图像特征,确定所述两时相图像中的至少一个候选区域各自的特征图时,具体用于:针对所述两时相图像中的第一图像和第二图像,对所述第一图像和所述第二图像中像素坐标相同的像素点进行像素值的差运算,得到差值特征图;将所述第一图像、所述第二图像以及所述差值特征图进行连接,得到多通道图像;将所述多通道图像输入神经网络模型,以利用所述神经网络模型的主干网络对所述多通道图像进行特征提取操作和区域生成操作,得到所述至少一个候选区域的特征图。127.进一步可选地,所述神经网络模型还包括:与所述主干网络分别连接的多任务网络,所述多任务网络包括:实例分割网络以及变化检测网络。128.进一步可选地,所述实例分割网络包括:分类分支以及分割分支;处理器502在根据所述至少一个候选区域的特征图,对所述两时相图像进行实例分割,得到所述两时相图像包含的至少一个追踪对象时,具体用于:基于所述分类分支,根据所述至少一个候选区域的特征图,识别所述至少一个候选区域各自对应的追踪对象的实例类别;以及,基于所述分割分支,根据所述至少一个候选区域的特征图,计算所述至少一个候选区域各自对应的追踪对象的像素坐标。129.进一步可选地,处理器502在基于所述分割分支,根据所述至少一个候选区域的特征图,计算所述至少一个候选区域各自对应的追踪对象的像素坐标时,具体用于:针对所述两时相图像中的任一张图像,确定所述图像包含的目标候选区域;基于所述分割分支,根据所述目标候选区域的特征图,计算所述目标候选区域中的每一像素点属于追踪对象的概率;根据所述目标候选区域中的每一像素点属于追踪对象的概率,确定所述目标候选区域对应的追踪对象的像素坐标。130.进一步可选地,处理器502在区域的特征图,对所述两时相图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态时,具体用于:基于所述变化检测网络,根据所述至少一个候选区域的特征图,计算所述多个像素坐标分别属于至少一种变化状态的概率;根据所述多个像素坐标分别属于至少一种变化状态的概率,输出所述多个像素坐标各自对应的变化状态。131.进一步可选地,所述至少一种变化状态包括:新增状态、消失状态以及不变状态中的至少一种。132.进一步可选地,处理器502在根据所述至少一个追踪对象各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个追踪对象各自的变化状态时,具体用于:针对所述至少一个候选区域中的任一候选区域,从所述至少一个候选区域各自对应的追踪对象的像素坐标中,确定所述候选区域对应的目标追踪对象的像素坐标;根据所述目标追踪对象的像素坐标以及所述多个像素坐标各自对应的变化状态,确定所述目标追踪对象的变化状态;从所述至少一个候选区域各自对应的追踪对象的实例类别中,确定所述目标追踪对象的实例类别;输出所述目标追踪对象的变化状态以及实例类别。133.进一步可选地,所述两时相图像包括:所述目标环境对应的两时相遥感图像。134.进一步可选地,处理器502还用于:获取多组训练数据,每组训练数据包括两时相样本图像;其中,每张样本图像上标注有追踪对象的类别标签和多边形轮廓;根据所述两时样本相图像之间的标注差异以及所述两时样本相图像的拍摄顺序,计算所述两时相样本图像对应的多个像素坐标各自的变化状态真值;将所述多组训练数据输入所述神经网络模型;将所述样本图像上标注的追踪对象的类别标签和多边形轮廓以及所述多个像素坐标各自的变化状态真值作为监督信号,对所述神经网络模型进行迭代训练。135.进一步,如图5所示,该电子设备还包括:通信组件503、电源组件504等其它组件。图5中仅示意性给出部分组件,并不意味着电子设备只包括图5所示组件。136.其中,通信组件503被配置为便于通信组件所在设备和其他设备之间有线或无线方式的通信。通信组件所在设备可以接入基于通信标准的无线网络,如wifi,2g、3g、4g或5g,或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件可基于近场通信(nfc)技术、射频识别(rfid)技术、红外数据协会(irda)技术、超宽带(uwb)技术、蓝牙(bt)技术和其他技术来实现。137.其中,电源组件504,为电源组件所在设备的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。138.本实施例中,通过对两时相图像进行实例分割,可细致地检测出两时像图像中的追踪对象;通过对两时相图像对应的像素坐标进行变化检测,可获取到像素级别的变化状态检测结果。基于分割得到的追踪对象以及像素级别的变化状态检测结果,可准确地获取到两时相图像中的追踪对象的变化状态,提升对象追踪结果的准确性和可靠性。139.除前述实施例记载的对象追踪逻辑之外,图5所示的电子设备还可执行如下的地物追踪逻辑,其中,处理器502用于获取对目标环境进行拍摄得到的两时相遥感图像;至少一个候选区域各自的特征图根据所述两时相遥感图像的图像特征,确定所述两时相遥感图像中的至少一个候选区域各自的特征图;根据所述至少一个候选区域的特征图,对所述两时相遥感图像进行实例分割,得到所述两时相遥感图像包含的至少一个地面物体;以及,根据所述至少一个候选区域的特征图,对所述两时相遥感图像对应的多个像素坐标进行变化检测,得到所述多个像素坐标各自对应的变化状态;根据所述至少一个地面物体各自对应的像素坐标以及所述多个像素坐标各自的变化状态,确定所述至少一个地面物体各自的变化状态。140.相应地,本技术实施例还提供一种存储有计算机程序的计算机可读存储介质,计算机程序被执行时能够实现上述方法实施例中可由电子设备执行的各步骤。141.本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。142.本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。143.这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。144.这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。145.在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。146.内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。147.计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。148.还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。149.以上所述仅为本技术的实施例而已,并不用于限制本技术。对于本领域技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本技术的权利要求范围之内。
图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
对象追踪、地物追踪方法、设备、系统及存储介质与流程
作者:admin
2022-07-30 06:13:46
414
关键词:
计算;推算;计数设备的制造及其应用技术
专利技术