发布信息

相机和激光雷达联合标定方法以及存储介质、电子设备与流程 专利技术说明

作者:admin      2023-07-05 10:08:13     284



计算;推算;计数设备的制造及其应用技术1.本发明涉及标定技术领域,尤其涉及一种相机和激光雷达联合标定方法、以及存储介 质、电子设备。背景技术:2.相关技术中,公开了一种基于l型标定板的相机和激光雷达联合标定的方法,该方法 在待标定设备上,安装相机和激光雷达,并将l型标定板置于待标定的相机和激光雷达视 场内的地面上,并分别获取包含l型标定板的图像数据和点云数据;对获取的图像数据进 行角点检测,得到l型标定板两个平面上的棋盘格角点在像素坐标系下的坐标;对获取的 点云数据进行平面分割和拟合,得到l型标定板的两个平面方程,通过几何信息,进而得 到l型标定板两个平面上的棋盘格角点在激光雷达坐标系下的坐标;基于l型标定板的角 点在像素坐标系下的坐标,与l型标定板的角点在激光雷达坐标系下的坐标,计算得到相 机与激光雷达的位姿变化。3.然而,上述方法需构造复杂的空间映射关系及庞大的参数约束方程,计算复杂度高, 且存在参数方程解的不确定和无解等情况。同时,点云目标不易直接提取,存在人工干预 和手工校准,效率低且可重复性难度大。技术实现要素:4.本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的一个 目的在于提出一种相机和激光雷达联合标定方法。该方法可以避免人工介入引入的随机误 差,同时可以有效抑制随机噪声引起的扰动,提升标定精度和收敛效率。5.本发明的第二个目的在于提出一种计算机可读存储介质。6.本发明的第三个目的在于提出一种电子设备。7.为达到上述目的,本发明第一方面实施例提出了一种相机和激光雷达联合标定方法, 包括以下步骤:通过相机获取包含标定目标物的图像数据,通过激光雷达获取包含所述标 定目标物的点云数据;利用第一神经网络模型对所述图像数据进行处理,得到所述标定目 标物的2d坐标数据真实值;基于球面投影将所述点云数据映射成二维深度图像,并利用第 二神经网络模型对所述二维深度图像进行标定目标物语义分割,得到所述标定目标物的3d 坐标数据;构建第三神经网络模型,并将所述3d坐标数据输入至所述第三神经网络模型, 输出2d坐标数据预测值;利用所述2d坐标数据真实值和所述2d坐标数据预测值训练所述 第三神经网络模型,根据训练好的第三神经网络模型得到所述相机和所述激光雷达的位姿 关系。8.另外,本发明实施例的相机和激光雷达联合标定方法还可以具有如下附加的技术特征:9.根据本发明的一个实施例,所述第一神经网络模型和所述第二神经网络模型均采用卷 积神经网络模型。10.根据本发明的一个实施例,所述利用第一神经网络模型对所述图像数据进行处理,得 到所述标定目标物的2d坐标数据真实值,包括:a1、对所述图像数据进行下采样,将采样 结果输入至由依次连接的focus模块、cbl模块和csp模块组成的网络结构进行特征学习, 得到相应的输出图像;b1、对步骤a1的输出图像进行下采样,将采样结果输入至由依次连 接的cbl模块、csp模块组成的网络结构进行特征学习,得到相应的输出图像;c1、对步 骤b1的输出图像进行下采样,将采样结果输入至由依次连接的cbl模块、spp模块、csp 模块、cbl模块组成的网络结构进行特征学习,得到相应的输出图像;d1、对步骤c1的输 出图像进行上采样,将采样结果结合步骤c1的输入图像,通过特征融合concat模块实现 相同维度的图像特征通道拼接,得到相应的输出图像;e1、将步骤d1的输出图像输入至由 依次连接的csp模块、cbl模块组成的网络结构进行特征学习,得到相应的输出图像;f1、 对步骤e1的输出图像进行上采样,将采样结果结合步骤b1的输入图像,通过特征融合 concat模块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合,得到相应的 输出图像;g1、对步骤f1的输出图像进行卷积操作得到第一预测先验框;h1、将步骤f1 的输出图像输入至cbl模块进行特征学习,并结合步骤f1的输入图像,通过特征融合concat 模块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合,得到相应的输出图 像;i1、对步骤h1的输出图像进行卷积操作得到第二预测先验框;j1、将步骤h1的输出 图像输入至cbl模块进行特征学习,并结合步骤e1的输入图像,通过特征融合concat模 块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合,之后进行卷积操作得 到第三预测先验框;k1、基于所述第一预测先验框、所述第二预测先验框和所述第三预测 先验框,计算得到所述标定目标物的各类别标记的概率,将概率最大的类别作为最终输出 类别,并根据所述最终输出类别得到所述2d坐标数据真实值。11.根据本发明的一个实施例,所述利用第二神经网络模型对所述二维深度图像进行标定 目标物语义分割,得到所述标定目标物的3d坐标数据,包括:a2、对所述二维深度图像进 行下采样,将采样结果输入至由依次连接的focus模块、cbl*1模块组成的网络结构进行 特征学习,得到相应的输出图像;b2、对步骤a2的输出图像进行下采样,将采样结果输入 至由依次连接的resunit*1、resunit*2、resunit*8组成的网络结构进行特征学习,得到 相应的输出图像;c2、对步骤b2的输出图像进行下采样,将采样结果输入至由依次连接的 resunit*8、resunit*4组成的网络结构进行特征学习,得到相应的输出图像;d2、将步骤 c2的输出图像输入至cbl*5模块进行特征学习,得到相应的输出图像;e2、对步骤d2的 输出图像进行卷积操作得到第四预测先验框;f2、对步骤d2的输出图像进行卷积操作,并 对卷积操作后的图像进行上采样,将采样结果结合步骤d2的输入图像,通过特征融合 concat模块实现相同维度的图像特征通道拼接,并通过cbl*5模块进行特征学习,得到相 应的输出图像;g2、对步骤f2的输出图像进行卷积操作得到第五预测先验框;h2、对步骤 e2的输出图像进行卷积操作,并对卷积操作后的图像进行上采样,将采样结果结合步骤c2 的输入图像,通过特征融合concat模块实现相同维度的图像特征通道拼接,并通过cbl*5 模块进行特征学习,之后进行卷积操作得到第六预测先验框;i2、基于所述第四预测先验 框、所述第五预测先验框和所述第六预测先验框,计算得到所述标定目标物上各类别标记 的概率,将概率最大的类别作为最终输出类别;j2、根据所述最终输出类别,通过k最近 邻搜索匹配将所述二维深度图像映射回点云空间,得到所述3d坐标数据。12.根据本发明的一个实施例,所述focus模块包括并联的多个切片单元及其之后依次连 接concat模块、cbl模块;所述csp模块包括卷积块、两个cbl模块、concat模块,所述 卷积块与一个cbl模块并联,且并联后依次与所述concat模块和另一个cbl模块连接,所 述卷积块包括依次连接的1个cbl模块和x个resunit,x个resunit之间串联连接,每个 所述resunit均包括依次连接的2个cbl模块和1个add模块,所述卷积块中的cbl模块 分别与每个所述resunit中的第一个cbl模块和add模块连接,x=1、2、4或8;所述spp 模块包括两个cbl模块和连接在两个所述cbl模块之间的并联的多个最大池化层;所述cbl 模块包括依次相连接的conv卷积层、bn批标准化层和leaky relu激活函数。13.根据本发明的一个实施例,所述第三神经网络模型为采用反向传播算法的前馈神经网 络模型,包括输入层、隐藏层、输出层,各层之间通过网络权重和偏差进行连接。14.根据本发明的一个实施例,所述利用所述2d坐标数据真实值和所述2d坐标数据预测 值训练所述第三神经网络模型,包括:根据所述2d坐标数据预测值及其对应的2d坐标数 据真实值,以及所述第三神经网络模型的当前网络参数构建误差函数;根据所述误差函数 更新所述第三神经网络模型的网络参数。15.根据本发明的一个实施例,所述误差函数通过下式表示:[0016][0017]其中,e为所述误差函数,j=1,2,…,n,n为输入至所述第三神经网络模型的3d坐标 的个数,xj为第j个3d坐标数据,0<λ<1,λ为预设参数,wj为第j个神经元的连接权 重,bj为第j个神经元的偏置值,为xj邻域数据拟合的3d空间中心坐标数据,yj’为 xj对应的2d坐标数据真实值。[0018]为达到上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储 有计算机程序,所述计算机程序被处理器执行时,实现本发明上述的相机和激光雷达联合 标定方法。[0019]为达到上述目的,本发明第三方面实施例提出了一种电子设备,包括存储器、处理器 和存储在所述存储器上的计算机程序,所述计算机程序被所述处理器执行时,实现本发明 上述的相机和激光雷达联合标定方法。[0020]根据本发明实施例的相机和激光雷达联合标定方法以及存储介质、电子设备,通过自 动化提取和筛选点云目标和图像目标,且标定目标物提取稳定,避免了人工介入从而带来 的随机误差,同时将距离特征引入误差函数,自适应优化权重更新步长,避免网络收敛过 慢,且距离特征也可有效抑制随机噪声对网络权重更新的扰动,提升标定精度和收敛效率。[0021]本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明 显,或通过本发明的实践了解到。附图说明[0022]图1是本发明实施例的相机和激光雷达联合标定方法的流程图;[0023]图2是本发明一个实施例的步骤s102的流程图;[0024]图3是本发明一个实施例的第一神经网络的结构示意图;[0025]图4是本发明一个实施例的第一神经网络中focus模块、csp模块、spp模块、cbl模 块的结构示意图;[0026]图5是本发明一个实施例的步骤s103中获取3d坐标数据的流程图;[0027]图6是本发明一个实施例的第二神经网络的结构示意图;[0028]图7是本发明一个实施例的第三神经网络的结构示意图。具体实施方式[0029]下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同 或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描 述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。[0030]下面参考附图描述本发明实施例的相机和激光雷达联合标定方法以及存储介质、电子 设备。[0031]图1是本发明实施例的相机和激光雷达联合标定方法的流程图。[0032]如图1所示,相机和激光雷达联合标定方法包括以下步骤:[0033]s101,通过相机获取包含标定目标物的图像数据,通过激光雷达获取包含标定目标物 的点云数据。[0034]其中,标定目标物可以是任意现成的物体,如交通标识、树木、动物、雕塑等,无需 人为设置。[0035]具体地,通过激光雷达获取的点云数据中的每一个点都包含三维坐标信息,可包括我 们常说的x、y、z三个方向上坐标。其中,标定目标物的点云数据可利用车辆上安装的激 光雷达发射激光信号,然后收集反射的激光信号从而得到;目标物的图像数据可直接通过 车辆上安装的相机采集得到。[0036]s102,利用第一神经网络模型对图像数据进行处理,得到标定目标物的2d坐标数据真 实值。[0037]具体地,一般情况下一个像素可以由它所在的横纵坐标来表示,在利用第一神经网络 模型处理s101中获取的包含标定目标物的图像数据,可得到标定目标度在像素坐标下的位 置信息,即得到上述标定目标物在2d像素坐标下的数据真实值。[0038]优选地,第一神经网络模型可采用卷积神经网络模型。[0039]s103,基于球面投影将点云数据映射成二维深度图像,并利用第二神经网络模型对二 维深度图像进行标定目标物语义分割,得到标定目标物的3d坐标数据。[0040]具体地,点云数据标注相比于二维图像标注更为困难,为此对于激光雷达中点云的标 定目标物检测和识别,可先将点云数据投影为二维深度图,如采用rangenet++模型将点云 数据投影为二维深度图,再利用第二神经网络模型根据二维深度图像进行标定目标物语义 分割。其中,深度图像也被称为距离影像,是指将从图像采集器到场景中各点的距离值作 为像素值的图像,利用深度图像可以比较方便的解决3d目标中描述的问题。[0041]优选地,第二神经网络模型可采用卷积神经网络模型。[0042]s104,构建第三神经网络模型,并将3d坐标数据输入至第三神经网络模型,输出2d 坐标数据预测值。[0043]s105,利用2d坐标数据真实值和2d坐标数据预测值训练第三神经网络模型,根据训 练好的第三神经网络模型得到相机和激光雷达的位姿关系。[0044]具体地,构建第三神经网络模型,并且将s103获取的标定目标物的3d坐标数据作为 输入,同时s102获取的标定目标物的2d坐标数据真实值作为输出,对第三神经网络模型 进行训练,训练完成的第三神经网络模型可通过3d坐标数据获取2d坐标数据预测值。即 利用训练好的第三神经网络模型可得到相机和激光雷达在指定坐标系中的位置关系和姿态 关系。[0045]其中,上述利用2d坐标数据真实值和2d坐标数据预测值训练第三神经网络模型,包 括:根据2d坐标数据预测值及其对应的2d坐标数据真实值,以及第三神经网络模型的当 前网络参数构建误差函数;根据误差函数更新第三神经网络模型的网络参数,从而达到训 练第三神经网络模型的目的。[0046]图2是本发明一个实施例的步骤s102的流程图。[0047]作为一个可行的实施方式,利用第一神经网络模型对图像数据进行处理,得到标定目 标物的2d坐标数据真实值,参见图2,主要步骤包括:首先对获取的图像数据进行数据标 注,然后训练相应的数据集,训练好的数据集经过卷积神经网络后进行标定目标物的检测 和定位,将提取到的标定目标物进行位置排序从而得到2d坐标数据真实值。[0048]具体地,第一神经网络模型的结构如图3所示,参见图3,上述利用第一神经网络模型 根据图像数据获取标定目标物的2d坐标数据真实值的详细步骤包括:[0049]a1,对步骤s101中获取的的图像数据进行下采样,将采样结果输入至由依次连接的 focus模块、cbl模块和csp(cross-stage-partial,局部跨层)模块组成的网络结构进 行特征学习,得到相应的输出图像。[0050]其中,如图4所示,focus模块可包括并联的多个slide(切片)单元及其之后依次连 接concat模块、cbl模块。csp模块可包括卷积块、两个cbl模块、concat模块,卷积块 与一个cbl模块并联,且并联后依次与concat模块和另一个cbl模块连接,其中卷积块又 可包括依次连接的1个cbl模块和x个resunit,x个resunit之间串联连接,每个resunit 均可包括依次连接的2个cbl模块和1个add模块,卷积块中的cbl模块分别与每个resunit 中的第一个cbl模块和add模块连接,x可为1、2、4或8。cbl模块可包括依次相连接的 conv卷积层、bn批标准化层和leaky relu激活函数。[0051]具体地,可以从宽和高两个方向上进行下采样,宽和高的采样步长可为2,下采样后的 图像依次输入至focus模块、cbl模块和csp(cross-stage-partial,局部跨层)模块组 成的网络结构,可消除重复计算导致的内存压力,同时对特征融合进行层次化设计可平衡 层间计算。[0052]b1,对步骤a1的输出图像进行下采样,将采样结果输入至由依次连接的cbl模块、csp 模块组成的网络结构进行特征学习,得到相应的输出图像。[0053]c1,对步骤b1的输出图像进行下采样,将采样结果输入至由依次连接的cbl模块、spp (spatial pyramid pooling,空间金字塔池化)模块、csp模块、cbl模块组成的网络结 构进行特征学习,得到相应的输出图像。[0054]其中,spp模块可包括两个cbl模块和连接在两个cbl模块之间的并联的多个最大池化 层。通过执行空间金字塔池化(spp),可避免网络对于特征重复提取,提升不同尺度特征 图融合后的目标表达能力。[0055]d1,对步骤c1的输出图像进行上采样,将采样结果结合步骤c1的输入图像,通过特 征融合concat模块实现相同维度的图像特征通道拼接,得到相应的输出图像。[0056]其中,通过特征融合concat模块实现相同维度的图像特征通道拼接,可恢复下采样特 征丢失细节。[0057]e1,将步骤d1的输出图像输入至由依次连接的csp模块、cbl模块组成的网络结构进 行特征学习,得到相应的输出图像。[0058]f1,对步骤e1的输出图像进行上采样,将采样结果结合步骤b1的输入图像,通过特 征融合concat模块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合,得到 相应的输出图像。[0059]g1,对步骤f1的输出图像进行卷积操作得到第一预测先验框。[0060]h1,将步骤f1的输出图像输入至cbl模块进行特征学习,并结合步骤f1的输入图像, 通过特征融合concat模块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合, 得到相应的输出图像。[0061]i1,对步骤h1的输出图像进行卷积操作得到第二预测先验框。[0062]j1,将步骤h1的输出图像输入至cbl模块进行特征学习,并结合步骤e1的输入图像, 通过特征融合concat模块实现相同维度的图像特征通道拼接,并通过csp模块对特征融合, 之后进行卷积操作得到第三预测先验框。[0063]k1,基于第一预测先验框、第二预测先验框和第三预测先验框,计算得到标定目标物 的各类别标记的概率,将概率最大的类别作为最终输出类别,并根据最终输出类别得到2d 坐标数据真实值。[0064]图5是本发明一个实施例的步骤s103中获取3d坐标数据的流程图。[0065]作为一个可行的实施方式,利用第二神经网络模型对二维深度图像进行标定目标物语 义分割,得到标定目标物的3d坐标数据,参见图5,主要步骤包括:激光雷达将获取到的 3d点云数据经过球面投影映射为深度图像,深度图像再经过第二神经网络对其进行语义分 割,进行类别统计,提取标定目标物,对提取到的标定目标物进行深度查询和距离排序获 得标定目标物的3d点云信息。[0066]具体地,第二神经网络的结构如图6所示,参见图6,上述利用第二神经网络模型根据 二维深度图像获取标定目标物的3d坐标数据的详细步骤包括:[0067]a2,对二维深度图像进行下采样,将采样结果输入至由依次连接的focus模块、cbl*1 模块组成的网络结构进行特征学习,得到相应的输出图像。[0068]其中,可从宽和高两个方向上对二维深度图像进行下采样。[0069]b2,对步骤a2的输出图像进行下采样,将采样结果输入至由依次连接的resunit (rectified linear unit,激活函数)*1、resunit*2、resunit*8组成的网络结构进行 特征学习,得到相应的输出图像。[0070]c2,对步骤b2的输出图像进行下采样,将采样结果输入至由依次连接的resunit*8、 resunit*4组成的网络结构进行特征学习,得到相应的输出图像。[0071]d2,将步骤c2的输出图像输入至cbl*5模块进行特征学习,得到相应的输出图像。[0072]e2,对步骤d2的输出图像进行卷积操作得到第四预测先验框。[0073]f2,对步骤d2的输出图像进行卷积操作,并对卷积操作后的图像进行上采样,将采样 结果结合步骤s304的输入图像,通过特征融合concat模块实现相同维度的图像特征通道 拼接,并通过cbl*5模块进行特征学习,得到相应的输出图像。[0074]g2,对步骤f2的输出图像进行卷积操作得到第五预测先验框。[0075]h2,对步骤e2的输出图像进行卷积操作,并对卷积操作后的图像进行上采样,将采样 结果结合步骤c2的输入图像,通过特征融合concat模块实现相同维度的图像特征通道拼 接,并通过cbl*5模块进行特征学习,之后进行卷积操作得到第六预测先验框。[0076]i2,基于第四预测先验框、第五预测先验框和第六预测先验框,计算得到标定目标物 上各类别标记的概率,将概率最大的类别作为最终输出类别。[0077]j2,根据最终输出类别,通过k最近邻搜索匹配将二维深度图像映射回点云空间,得 到3d坐标数据。[0078]图7是本发明一个实施例的第三神经网络的结构示意图。[0079]如图7所示,第三神经网络模型可为浅层神经网络模型,如采用反向传播算法的前馈 神经网络模型,包括输入层、隐藏层、输出层,各层之间通过网络权重和偏差进行连接, 通过设置不同(常用的三层)网络层数的模拟非线性的连续函数,来建立点云坐标和像素 坐标之间的映射关系。[0080]在该示例中,可将深度距离特征引入误差函数,从而自适应优化权重更新步长,提升 网络收敛效率,误差函数可通过下式表示:[0081][0082]其中,e为误差函数,j为正整数,j=1,2,…,n,n为输入至所述第三神经网络模型的 3d坐标的个数,xj为第j个3d坐标数据,0<λ<1,λ为预设参数,wj为第j个神经元的 连接权重,bj为第j个神经元的偏置值,为xj邻域数据拟合的3d空间中心坐标数据, yj’为xj对应的2d坐标数据真实值。[0083]综上,本发明实施例的相机和激光雷达联合标定方法,无需构造复杂的空间约束关系 及庞大的参数约束方程,执行过程更简便,且相比于参数方程解的不确定和无解等情况, 采用基于网络优化的方案可获取稳定的方程解;通过自动化提取和筛选点云目标和图像目 标,避免了人工介入引入的随机误差,同时将距离特征引入误差函数,避免网络收敛过慢 且有效抑制随机噪声引起的扰动,提升标定精度和收敛效率。[0084]进一步地,本发明提出一种计算机可读存储介质。[0085]在本发明实施例中,计算机可读存储介质上存储有计算机程序,该计算机程序被处理 器执行时,实现上述的相机和激光雷达联合标定方法。[0086]进一步地,本发明提出一种电子设备。[0087]在本发明实施例中,上述电子设备包括存储器、处理器和存储在存储器上的计算机程 序,上述计算机程序被所述处理器执行时,实现上述的相机和激光雷达联合标定方法。[0088]需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以 被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介 质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他 可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行 系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、 存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、 装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下: 具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取 存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器), 光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在 其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描, 接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其 存储在计算机存储器中。[0089]应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实 施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或 固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下 列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路 的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现 场可编程门阵列(fpga)等。[0090]在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具 体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材 料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意 性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点 可以在任何的一个或多个实施例或示例中以合适的方式结合。[0091]在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、ꢀ“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、ꢀ“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径 向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便 于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以 特定的方位构造和操作,因此不能理解为对本发明的限制。[0092]此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要 性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以 明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个, 例如两个,三个等,除非另有明确具体的限定。[0093]在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固 定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可 以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以 是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的 普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。[0094]在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可 以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第 一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或 斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、ꢀ“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特 征水平高度小于第二特征。[0095]尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的, 不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例 进行变化、修改、替换和变型。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部