计算;推算;计数设备的制造及其应用技术1.本发明属于图像识别技术领域,具体涉及一种极端条件下场景图像识别方法。背景技术:2.工业燃气表被广泛应用于国防、交通、燃气、电力等工业领域。近年来随着生产规模扩大,工业生产中仪表使用率飞速增长,机械燃气表因安装方便快捷,使用周期长,大量用于燃气厂,水厂,变电站等场景下。虽然现有远程抄表系统在一定程度上克服工人手动抄表周期长,人工成本高等问题,但极端成像环境下仍然无法准确、快速识别表盘字符,使得工厂无法精确掌握工业生产中实时数据,影响工业智能化的发展和进步。而工业仪表远程抄表系统中最关键的步骤是对仪表图像数字字符识别。为了提高燃气表字符识别准确率,目前国内外研究者利用多种技术实现仪表字符识别。这些方法虽然可以自动获得理想条件下仪表更准确的识别结果,但操作耗时长,操作过程繁琐,难以推广,特别是极端环境条件下识别效果差。以基于模板匹配法的字符识别为例,首先人工建立规格尺寸一致的标准模板识别库;然后根据标准模板库图像尺寸调整需要识别字符的图像尺寸,使其与模板尺寸匹配;依次计算分割后的每一个待识别字符与模板库中所有字符的相似度,根据相似度大小获得识别结果,而后再将结果输出。虽然这种方法成本低,但该方法需要大量前期工作,计算耗时较长,不同类型的表盘需要制作不同的字符模板。此外,该方法适用于成像质量好且字符规范的仪表,对于仪表图像中不规范字符和成像质量差的表盘,其识别的性能较差。3.近年来,由于基于深度学习的计算机视觉方法能够消除结果中的不一致和错误,大量计算机视觉方法取代了传统的手工操作,在各个方面得到了广泛应用,如自动识别系统,缺陷检测等。有学者提出一种堆叠式架构的编码器-解码器字符识别方法,首次使用bilstm作为堆叠结构重复计算上下文特征,然而该堆叠块高达12层,计算开销大,推理速度慢,此外bilstm也只能对特定长距离表现良好。总之,工业生产中,工厂快速、准确地掌握生产中仪表实时数据,是工业智能化发展和进步的基础。但自然场景下仪表表盘受天气,光照,角度等难以预见的因素影响,导致表盘成像质量差,如存在图像过度曝光、伪影、模糊、字符显示不全、遮挡等问题,远程抄表系统对极端情况下的表盘图像识别效果差,难以满足工业生产需求。技术实现要素:4.本发明的目的在于提供一种极端条件下场景图像识别方法,用以解决极端情况下对字符图像识别准确度低的问题。5.为解决上述技术问题,本发明所提供的技术方案以及技术方案对应的有益效果如下:6.本发明提供的一种极端条件下场景图像识别方法,包括如下步骤:7.1)获取待识别图像;8.2)将待识别图像输入至图像识别模型中进行识别,得到图像中字符的识别结果;9.其中,所述图像识别模型包括特征提取模块、编码器和解码器;所述特征提取模块用于对输入的图像进行特征提取以获得视觉特征;所述编码器用于对所述视觉特征进行编码,以提取全局语义特征;所述解码器包括cbam注意力单元和lstm注意力单元;所述cbam注意力单元用于对所述全局语义特征进行解码,获得注意力特征;所述lstm注意力单元用于对所述注意力特征进行解码,获得识别字符的概率分布;所述图像识别模型利用已知字符的图像作为数据集训练得到。10.上述技术方案的有益效果为:本发明的解码器为两步注意力机制解码器,第一步,所述cbam注意力单元,依次关注特征通道和空间维度,抑制了边界和背景信息中的噪声,而且保持了视觉特征和语义信息,能够整体提升模型的识别精度;此外,所述cbam注意力单元不会显著增加网络的参数量,同时可以分配计算资源,加强重要特征,抑制次要特征来提高模型效果。第二步,lstm注意力单元,lstm注意力单元在获得特征注意力序列后,关注特征序列内部的时序关系,经过多个时间步解码出图像中的字符串。采用两步注意力机制解码器,可以在图像过度曝光、伪影、模糊、字符显示不全、遮挡等极端情况下取得不错的识别效果,且通过试验和仿真证明,在成像质量不高的燃气表数据集上达到90.1%的准确率,其准确性和实用性能满足工业生产中仪表数据检测识别的需求,具有广泛的应用价值。11.进一步地,为了能够节约训练和推理时间以提高模型性能以及提高识别准确率,引入细粒度丰富的全局上下文信息,增强网络对长距离网络依赖信息的获取能力;所述编码器包括依次连接的n层非局部注意力模块,n≥1,且最后一个非局部注意力模块的输出为所述全局语义特征;所述非局部注意力模块包括非局部注意力单元和累加单元;所述非局部注意力单元用于对输入的初始特征图执行非局部注意力机制计算,以得到非局部特征图;所述累加单元通过以下公式对所述非局部特征图和初始特征图进行加权求和,以获得捕获全局语义信息的特征图yi:12.yi=wyyi+xi13.其中,yi为非局部特征图,wy为学习权重矩阵,xi为位置i对应的初始特征图。14.进一步地,n=3。15.进一步地,所述特征提取模块包括残差网络。16.进一步地,为了提取到合适大小的特征,所述残差网络为resnet50,且resnet50为仅使用前4个部分的resnet50。17.进一步地,为了加速模型收敛,以提高角度倾斜大的字符识别的准确率,在训练所述图像识别模型时,在编码器和解码器之间设置ctc模块,所述ctc模块用于对齐数据标签。18.进一步地,训练所述图像识别模型时使用的损失函数公式为:19.ltotal=λlctc+(1-λ)lce20.其中,lce为交叉熵损失,lctc为ctc损失,0《λ《1。21.进一步地,为了得到图像的统一尺寸,所述图像识别模型的输入图像尺寸按照如下方法得到:22.采用聚类算法对图像集进行聚类,获取多个聚类块;选择包含最多数据的聚类块的聚类中心所对应的图像尺寸作为输入图像尺寸。23.进一步地,所述聚类算法为k均值聚类。24.进一步地,将待识别图像输入至所述图像识别模型前还需将待识别图像由三通道的rgb图像转换成单通道的灰度图。附图说明25.图1是本发明的图像识别模型结构示意图;26.图2是本发明实施例k均值聚类效果图;27.图3是本发明的一种极端条件下场景图像识别方法的非局部注意力单元和累加单元的结构示意图;28.图4是本发明的一种极端条件下场景图像识别方法的两步注意力机制解码器的结构示意图;29.图5是本发明实验中获得的edmar模型结合ctc算法与不结合ctc算法的性能对比示意图;30.图6是本发明实验中获得的算法对极端图片的预测能力示意图。具体实施方式31.本发明提出了一种极端条件下场景图像识别方法,首先从采集到的表盘图像中选取过度曝光、伪影、模糊、字符显示不全、遮挡等极端条件下的表盘图像,构建燃气表数据集。然后建立一种基于编码器-解码器和多注意力的字符识别网络模型(edmar)。字符识别网络模型包含特征提取模块、编码器和解码器。编码器由3个非局部注意力模块组成。为了提高识别结果的准确性,解码器使用了一种新的两步注意力解码器,第一步是卷积块注意力(cbam),即cbam注意力单元,将包含有特征提取模块提取的视觉特征和编码器计算的上下文特征重新加权以提高模型性能;第二步是长短期记忆注意力(lstm attention),即lstm注意力单元,关注特征序列之间的关系。同时使用ctc算法用来帮助特征对齐,提升图像字符识别准确率。接着利用燃气表数据集对字符识别网络模型进行训练,可得到训练好的字符识别网络模型,利用该训练好的字符识别网络模型便可实现对极端情况下的字符图像进行识别,获得识别字符的概率分布。由此,本发明创新性地结合多种注意力,避免丢失有意义的视觉特征和语义特征,提升极端条件下图像字符识别准确率。32.为了使本发明的目的、技术方案及优点更加清楚明了,以下结合附图及实施例,对本发明进行进一步详细说明。33.方法实施例:34.本实施例提供一种极端条件下场景图像识别方法,包括:获取待识别图像,将待识别图像输入至图像识别模型中进行识别,图像识别模型即基于编码器-解码器和多注意力的字符识别网络模型(edmar),得到图像中字符的识别结果;如图1所示,图像识别模型包括特征提取模块、编码器和解码器;特征提取模块用于对输入的图像进行特征提取以获得视觉特征;编码器用于对图像特征进行编码,以提取全局语义特征;解码器包括cbam注意力单元和lstm注意力单元;cbam注意力单元用于对图像特征和语义特征进行解码,获得注意力特征;lstm注意力单元用于对注意力特征解码,获得识别字符的概率分布;图像识别模型利用已知字符的图像作为数据集训练得到。图像识别模型的推理流程如下:35.preprocessing:预处理阶段,将输入图像设置成64×400(h×w)大小并转换成灰度图。36.feature:特征提取阶段,使用预训练的resnet50提取视觉特征。37.encoder:编码阶段,对embedding的特征向量进行多次编码并使用非局部注意力机制提取细粒度语义特征。38.decoder:解码阶段,采用新型两步注意力机制解码器。39.下面结合图像识别模型各个组成模块以及推理流程对本发明进行说明:40.本实施例以对燃气表识别为例进行说明,燃气表使用远程抄表系统进行采集图像,以获取待识别图像,将采集到的待识别图像在输入图像识别模型前需要进行预处理。41.1-1.预处理。42.将待识别图像设置成64×400(h×w)大小并转换成灰度图。具体地,远程抄表系统采集到的图像大小不同,本发明使用k均值聚类找到最聚集的图像尺寸,并绘制出聚类结果,如图2所示。对图像预处理时,选择聚类中心作为图像的固定尺寸,聚类中心大概是64×400(h×w),所以统一将图像设置成64×400(h×w),并将三通道的rgb图像转换成单通道的灰度图。43.1-2.特征提取。44.在进行特征提取时,经网络(cnn)从输入图像中提取视觉特征。本发明综合精度和速度的考量,特征提取阶段选用预训练的resnet50为骨干网络提取视觉特征。resnet50包含五个模块,分别是:conv1,conv2_x,conv3_x,conv4_x,conv5_x。为了提取到合适大小的特征,本发明使用了resnet50前4个部分:conv1,conv2_x,conv3_x,conv4_x。45.如图1所示,图像识别模型的输入是64×400×1大小的图片,经过50层的残差网络提取特征得到4×25×1024大小的特征图,即该特征图携带提取的视觉特征;然后将该视觉特征输入至编码器,进一步进行编码处理。46.1-3.编码过程。47.图像识别模型的编码器采用多层非局部自注意力模块代替传统的rnn,优点是可以并行计算,解决了rnn网络不能并行的弊端,节约了训练和推理时间。非局部自注意力模块包括非局部注意力单元和累加单元;非局部注意力模块的结构如图3所示。本发明编码器使用3层非局部注意力模块编码视觉信息,依此来引入细粒度丰富的全局上下文信息,增强网络对长距离网络依赖信息的获取能力。48.如图3所示,在进行编码时,首先输入h×w×c的特征图x(第一层非局部注意力模块使用的是特征提取模块获得的视觉特征),经过g,θ,φ3个不同的1×1卷积生成3个特征图f1,f2,f3,生成特征图的大小和原特征图的大小相同。对特征图f1与特征图f2的转置进行乘法运算,得到的特征矩阵经softmax操作,随后其结果进行转置再与特征图f3进行相乘运算,得到非局部特征图f。使用累加单元将非局部特征图f与输入的初始特征图x进行加权求和,最终得到可以表示全局语义特征的特征图y。非局部注意力机制的计算公式定义为:[0049][0050]式中i指的是输出层在位置i处的输出,j指的是特征图中除了i位置之外的其他位置。是成对函数,用来计算位置i和位置j之间的相似性。成对函数将xi和xj映射到高斯空间来计算2个位置特征图的相似度。最终成对函数输出位置i处的特征图与其它所有hot编码之间的连接。[0066](xt,st)=lstmcell(st-1,(gt,f(yt-1)))ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ(8)[0067]最后,对于每一个计算时间步t,字符的概率p(yt)如下。[0068]p(yt)=softmax(woxt+bo)ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ(9)经过以上步骤解码后,可以得到字符的概率分布。[0069]2.模型训练。[0070]图像识别模型利用已知字符的图像作为数据集训练得到。为了避免字符失真等因素导致相邻的区域被识别为同一个字符,在训练所述图像识别模型时,在编码器和解码器之间设置ctc模块。本实施例模型采用ctc算法帮助输入特征对齐数据标签,经过ctc算法对齐的特征作为解码器的输入。[0071]具体训练所述图像识别模型时,由于本实施例引入了ctc算法进行辅助训练,相当于用了两个损失函数,分别是在编码器端的ctc损失和解码器端的交叉熵损失,ctc损失占据总损失的λ倍,交叉熵损失占据总损失的1-λ倍,其损失函数公式如下:[0072]ltotal=λlctc+(1-λ)lceꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ(10)[0073]其中,lce为交叉熵损失,lctc为ctc损失,0《λ《1,优选的,λ=0.5。[0074]3.实验。[0075]3-1.实验环境。[0076]实验环境为ubuntu 20.04操作系统,酷睿tmi9-9900k处理器,32gb内存,gpu为rtx 2080ti*2,深度学习框架使用pytorch1.8和通用并行计算架构cuda11.1。[0077]3-2.数据集。[0078]本实施例所使用的数据集来自远程抄表系统采集的图像,包含了各种场景,如白天,夜晚,晴天,光照,不同角度等,共计20万张。从中选取暗光、伪影、重影、模糊、反光等成像条件差的仪表图像3万张,采用人工标注,标注完成后存放在xml格式的标签文件,每个xml对应数据集中的一张图片。为了提高模型的泛化能力和鲁棒性,以便模型提供更加准确的可靠的预测,本实施例采用椒盐噪声、高斯噪声、伽马校正、运动模糊、对焦模糊、随机擦除、随机旋转等数据增强技术,进一步扩充数据集至7万张。随机分成7:3:1,分别作为训练集、验证集、为测试集,每个部分都包含相应标签。[0079]本发明还使用了公开数据集iiit5k,svt,icdar2013,进一步验证本发明的方法具有可行性和有效性。iiit5k由2000张训练图片和3000张测试图片组成,这些图片从谷歌图片搜索中裁剪出来。svt是一个从谷歌街景图片中收集的数据集,包含257张训练用图和647张测试用图。icdar2013包含848张训练和1015张测试用的文本边界框场景图像。[0080]3-3.实验细节。[0081]实验环境为ubuntu 20.04操作系统,酷睿tmi9-9900k处理器,32gb内存,gpu为rtx 2080ti*2,深度学习框架使用pytorch1.8和通用并行计算架构cuda11.1。在实验中,本发明使用了imagenet预训练的resnet-50作为骨干网络。resnet50包含conv1,conv2_x,conv3_x,conv4_x,conv5_x。本发明使用resnet50前4个部分:conv1,conv2_x,conv3_x,conv4_x。在训练和推理过程中,统一将图像处理成64×400(h×w)的单通道灰度图像。本发明使用adam优化器训练模型,设置指数衰减率β1=0.9,以控制动量与当前梯度的权重分配;设置指数衰减率β2=0.98,以控制之前梯度平方的影响情况。训练批次大小为64,经过15000次迭代后训练停止,输出训练结果。[0082]在训练推理过程中,模型输出字符的条件概率分布,本发明使用贪婪搜索解码字符,即在每一个时间步选择概率最大的字符,最终截取开始字符和终止字符之间的字符串作为模型识别图像的字符内容。[0083]3-4.edmar模型和edmar+ctc实验结果分析。[0084]本实施例将ctc算法作为主要变量,将本发明的edmar模型(本发明的图像识别模型为edmar模型)与ctc算法进行结合,探究单纯的edmar模型,以及edmar模型结合ctc算法并且ctc损失λ等于0.2,0.5,0.8的条件下模型的性能,在测试集上的准确率如图5所示。[0085]由图5可以看出,将edmar模型和ctc算法结合后,准确率有较大的提升。ctc算法帮助模型将数据标签对齐,进而提高模型的精度。单纯的edmar模型最高只达到了84.4%的准确率,而λ在0.2、0.5和0.8的时,识别准确率均超越单纯的edmar模型,分别达到了88.3%、90.1%和89.4%的准确率。因此本发明选取ctc损失=0.5。[0086]3-5.评估字符识别模型。[0087]为了验证本实施例所提出算法的有效性、准确性和可行性,在燃气表数据集上进行了多次实验,并进行了实验分析。如上所述,极端环境下仪表表盘字符识别的准确性和效率是该方法的重要指标。因此,通过准确率和推理时间两个定量度量来评价模型的性能。与几种先进的字符识别方法:scatter,crnn,srn,hga-str的识别结果进行比较,多种模型实验对比数据,如表1所示。[0088]表1多种模型实验对比数据[0089]算法名称准确率(%)fpscrnn87.5142scatter86.241srn87.471hga-str83.417edmar(ours-1)84.4180edmar+ctc(ours-2)90.1180[0090]这些方法对极端成像条件下燃气表数据集的识别结果如表1所示。可以看出,本发明的方法优于其它知名方法,不仅准确率最高,而且推理速度最快。基于编码-解码框架的scatter和hga-str在准确率和推理时间上性能较差。scatter采用堆叠式重复处理架构,在提取特征时增加计算量,解码器是选择性解码器,并行化程度低。hga-str模型使用cnn提取特征且保持输出的特征为二维,为得到全局信息,该模型使用池化操作得到一维向量。解码的实现和transformer结构相同,同时为了更好的性能该模型使用了两个方向进行解码。然而编码器得到的全局信息在解码器中逐步合并低层次特征时引入噪声。与上述编码-解码结构不同的是,本发明的方法使用非局部注意力编码器对卷积特征进行编码,编码器输出的高层次注意信息降低噪声的影响;同时使用ctc算法解决输入特征与输出标签的对齐问题,该算法进一步克服噪声影响。本发明的新型解码器分为两部分,第一部分使用了卷积注意力模块(cbam),依次关注特征通道和空间维度;第二部分使用lstm注意力模块,关注特征序列内的关系。通道注意力模块考虑到基于特征图高度和宽度的全局平均池化和全局最大池化用来聚合特征映射的空间信息,在共享网络中压缩特征图空间维数并进行逐元素求和。空间注意力模块在特征通道维度进行全局平均池化和全局最大池化对通道进行压缩。这不但抑制了边界和背景信息中的噪声,而且保持了视觉特征和语义信息,能够整体提升模型的识别精度。cbma层不会显著增加网络的参数量,同时可以分配计算资源,加强重要特征,抑制次要特征来提高模型效果。lstm层在获得特征注意力序列后,关注序列内部关系,解码出最终的字符串。相较于非编码-解码结构的crnn和srn方法,本发明的方法也表现出良好的性能。crnn模型虽然不用对字符进行分割以及字符缩放归一化,可以快速地处理任意长度的序列,但只用ctc算法转录出最后的结果,其对角度倾斜大,遮挡等情况下的字符识别不准确。而srn模型使用串行解码的方式,导致预测效率过低。[0091]本发明的方法采用非局部注意力码视觉特征,来捕获时间和空间的长范围依赖,提升输入图像的全局语义特征。使用ctc算法解决输入特征与输出标签的对齐问题,两步注意力包括cbam注意力单元和lstm注意力单元。edmar模型在图像过度曝光、伪影、模糊、字符显示不全、遮挡等极端情况下表现优良,在准确率和推理速度两个关键指标上拥有最好的表现。为了评估本发明提出的新型算法在成像质量不高的数据集上的性能,同时为了证明提出的新型解码器的合理性,本发明通过数据增强技术如增加噪声,加雾等进一步制作成像质量更差的数据集,与上述表现最好的crnn模型又进行了多次的实验,结果如图6所示。经过分析,本发明的edmar+ctc(ours-2)模型在识别精度和速度上优于先前的模型。对于一些极端的情况,edmar+ctc(ours-2)模型能够较好的识别出字符内容,拥有较好的鲁棒性和泛化能力,具有相当的应用价值。[0092]除了极端条件下的燃气表图像数据集,本发明还在公开数据集上iiit5k,svt,icdar2013进行了实验,进一步验证本发明的方法具有可行性和有效性。本发明与之前最先进的方法scatter,crnn,srn,robustscanner,abinet-lv,pren2d在公开数据集进行多次实验。如表2所示,本发明的方法在svt数据集上取得了令人惊讶的性能。svt是从谷歌街景收集的数据集,包含大量的遮挡,反光,暗光等极端条件下的数据。本发明的方法在svt数据集上拥有最好的性能,得益于本发明的新型两步注意力解码器,重点关注图像的通道信息和空间信息,同时也关注特征序列内的联系。此外,本发明的方法在iiit5k和icdar2013常规文本数据集上也实现了相当的sota性能。[0093]表2与最先进的方法在公开数据集对比[0094][0095]总而言之,本发明的模型在3个基准中的2个上获得了最好的识别性能,与其他方法不同的,本发明的方法对极端条件下的数据有更优秀的性能。[0096]3-6.消融实验。[0097]进一步地,为了评估本发明提出的方法的性能,特别是为了评估组成解码器的2个子模块(即cbam模块,lstm模块)本发明设计了关于ctc和cbam模块的消融研究。本发明建议的模型edmar+ctc通过消融实验,其对比结果如表3所示。从结果上看,每一种情况的准确率都有一定的提升,这说明每个子模块都是有价值的。具体来说,ctc算法帮助解决输入序列和标签的对应,因为对于字符识别来说不仅需要标注字符还需要标注位置,某些时候这是很困难的,使用ctc辅助训练解决了这种对齐问题。cbam在早期阶段对低层次的特征,如背景纹理特征进行去噪。然后,它们逐渐集中在准确的目标上,这是一个高层次的语义。换句话说,这证明了cbam保留了图像中最重要的信息,并抑制了不必要的信息,从而为字符识别提供了更有辨识力的特征。本发明发现,当组合使用这2个模块时,效果达到了最好,说明本发明的方法是可行的,有效的。[0098]表3消融实验结果比较[0099][0100][0101]总之,本实施例针对远程抄表系统对极端情况下的表盘图像识别效果差,难以满足工业生产需求,提出了一种极端条件下场景图像识别方法,该方法中使用了一种新型基于多注意力机制和编码器-解码器的字符识别模型。模型的编码器采用非局部注意力机制取代传统的rnn算法,以便进行并行计算,解码器采用了两步注意力机制,经过第一个cbam注意力机制得到注意力特征图,第二个lstm注意力机制关注特征序列内部的时序关系,经过多个时间步解码出图像中的字符串。此外,在模型的编码器端还引入了ctc算法辅助训练,用于解决输入特征与输出标签的对齐问题,相比于引入之前得到了5.7%的提升。尤其是,模型在图像过度曝光、伪影、模糊、字符显示不全、遮挡等情况下取得不错的效果,在成像质量不高的燃气表数据集上达到了90.1%的准确率,其准确性和实用性能满足工业生产中仪表数据检测识别的需求,具有广泛的应用价值。此外,本发明还适用于其他图像字符的识别。[0102]本发明主要贡献总结如下。[0103](1)该方法是一种利用计算机视觉和深度学习识别极端成像条件下燃气表字符的新方法。这将进一步推动深度学习在工业生产领域的应用。[0104](2)提出了一种新型的基于编码器-解码器和多注意力框架的字符识别模型。编码器利用非局部注意力计算图像的语义特征,将语义特征与视觉特征融合提高字符识别的精度。同时,使用ctc算法辅助特征对齐,加速模型收敛。[0105](3)提出了一种新型的两步注意力解码器,第一步注意力为cbam注意力,第二步注意力为lstm注意力,两步注意力解码器可以同时关注到空间,通道和时序的多维度信息。[0106](4)在极端环境条件下燃气表数据集和公开数据集上的实验结果表明,本发明的方法在字符识别方面达到了最先进的性能,其准确性和实用性能满足工业生产中仪表数据检测识别的实际需求。
图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
一种极端条件下场景图像识别方法
作者:admin
2022-08-31 10:42:26
536
关键词:
计算;推算;计数设备的制造及其应用技术
专利技术
- 下一篇: 一种具有自清洁功能的公路用警示装置的制作方法
- 上一篇: 一种产业化提取罗马洋甘菊油的工艺方法与流程