发布信息

一种属性抽取方法、装置及存储介质

作者:admin      2022-07-30 06:49:41     668



计算;推算;计数设备的制造及其应用技术1.本发明涉及技术领域,尤其是指一种属性抽取方法、设备、装置及计算机存储介质。背景技术:2.现有的技术中,目前,电商、影视、医疗等领域纷纷着手构建领域高质量知识图谱,属性抽取任务是构建知识图谱的重要环节之一,该任务面向垂直领域的非结构化文本,旨在抽取实体相关的属性及其属性值。以电商数据为例,给定一个商品类目“卫衣”及其描述文本“外贸男士秋季连帽卫衣出色拼接拉绒布嘻哈卫衣大码外套”,目标是从描述文本中抽取与“卫衣”相关的属性及属性值,如“材质-拉绒布”、“风格-嘻哈”,“材质”和“风格”是“卫衣”的属性,“拉绒布”和“嘻哈”是相应的属性值。属性抽取任务可提高知识图谱实体节点表达的完整程度,增强用户与知识图谱的交互体验。3.现有属性抽取方法主要分为基于规则的方法、基于传统机器学习的方法和基于深度学习的方法。基于规则的方法需要人工构造领域相关的规则模板,利用构造的规则模板在自然语言文本中匹配实体对应的属性和属性值。该方法基于单个领域制定领域相关的规则,存在适用性较差的问题。当规则规模变大,会导致整个规则集合难以维护,同时一旦出现新的规则无法覆盖的文本,那么需要进行额外的规则设计,该过程耗时耗力。基于传统机器学习的方法通常利用有监督学习策略,该方法需要大量的标注语料训练模型,使模型充分学习到数据包含的属性特征。4.近年来,深度学习方法在自然语言处理的各个信息抽取任务上被广泛应用,在命名实体识别、事件抽取、关系抽取、实体关系联合抽取等任务上都取得了不错的效果。例如,循环神经网络(recurrent neural network,rnn)及长短期记忆网络(long short-term memory,lstm)和门控网络(gated recurrent unit,gru)在自然文本的信息抽取方便表现突出。此外,有研究人员将注意力机制与bilstm-crf结合,捕获商品标题内在的语义联系,使模型更好的抽取出商品标题对应的属性和属性值。目前预训练语言模型凭借其出色的编码能力,成为属性抽取等信息抽取任务的主流编码器,如bert、albert、roberta、electra、xlnet等。5.属性抽取相关的现有技术存在以下缺点:6.1.基于人工模板的特征提取方法人工过滤数据耗时耗力,基于模糊匹配的方式难以保证抽取质量。基于专家知识构建的模板成本较高,且模板的覆盖度有限,不能灵活应用。对没有出现在数据中的新属性值,该方式无法进行抽取。7.2.基于双向长短期记忆神经网络的特征提取方法,难以解决远距离依赖问题,容易产生信息丢失的问题。8.3.基于预训练语言模型的方法,未充分考虑词汇信息,存在模型难以判断实体边界,泛化能力不足的问题。技术实现要素:9.为此,本发明所要解决的技术问题在于克服现有技术中远距离依赖、泛化能力不足的问题。10.为解决上述技术问题,本发明提供了一种属性抽取方法、设备、装置及计算机存储介质,包括:11.将预处理后的问题和文本输入预先训练好的属性抽取模型中,所述问题是mask标记代替头尾实体后的三元组,即为结构化信息;12.利用bert模型计算得到问题全局向量表示和第一文本全局向量表示,并对所述第一文本全局向量表示经过双向长短期记忆层bi-lstm编码得到第二文本全局向量表示;13.利用多头注意力机制将所述第二文本全局向量表示与所述问题全局向量表示进行交互后得到具有问题结构化信息泛化特征的文本全局向量表示;14.将所述文本输入自动分词工具得到该文本的分词结果和分词向量表示;15.根据所述分词结果中词语首尾标签的绝对位置索引,在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入所述分词向量表示,得到最终文本向量表示;16.预测所述最终文本向量表示中待抽属性值边界,获得目标属性值。17.优选地,所述利用bert模型计算得到问题全局向量表示和第一文本全局向量表示,并对所述第一文本全局向量表示经过双向长短期记忆层bi-lstm编码得到第二文本全局向量表示包括:18.对所述问题q和所述文本s进行分词,每一个字由一个标记的词向量te(wi),区分两个不同句子的词向量se(wi),以及位置词向量pe(wi)组成,得到问题与文本的向量表示;19.将所述问题与文本的向量表示输入所述bert模型后得到编码后的所述问题全局向量表示和所述第一文本全局向量表示和所述第一文本全局向量表示其中为bert编码后问题中每个字符的向量表示,为bert编码后文本中每个字符的向量表示;20.使用所述双向长短期记忆层bi-lstm对所述第一文本全局向量表示xs编码,得到所述第二文本全局向量表示其中为bi-lstm编码后文本中每个字符的向量表示。21.优选地,所述使用所述双向长短期记忆层bi-lstm对第一文本全局向量表示xs编码,得到所述第二文本全局向量表示包括:22.计算所述第一文本全局向量xs的隐状态表示,得到编码后的所述第二文本全局向量表示23.所述每个时刻i的隐状态oi由前向lstm的隐状态和后向lstm的隐状态拼接得到,计算公式如下:[0024][0025][0026][0027]优选地,所述根据所述分词结果中词语首尾标签的绝对位置索引,在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入所述分词向量表示,得到最终文本向量表示包括:[0028]所述文本分词结果中的词语位置表示为:[0029]p[ai,ti]={p1[a1,t1],p2[a2,t2]…pn[an,tn]},其中ai、ti分别表示每个词语在文本中的所述首尾标签的绝对位置索引,pn表示第n个词;[0030]在所述具有问题结构化信息泛化特征的文本全局向量表示在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入经bi-lstm并归一化后的含有词语时序特征的所述分词向量表示v,得到最终文本向量表示hv。[0031]优选地,所述预测所述最终文本向量表示中待抽属性值边界,获得目标属性值包括:[0032]采用两个线性层分别预测所述最终文本向量中每个字作为起始位置s与终止位置e的概率:[0033]si=sigmoid(fnn(hv))[0034]ei=sigmoid(fnn(hv)[0035]其中,si表示文本第i个字作为属性值起始位置的概率,ei表示文本第i个字作为属性值结尾位置的概率;[0036]将所述起始位置与其相应的结束位置作为所述目标属性值的坐标。[0037]优选地,所述属性抽取模型的训练过程包括属性值边界预测任务,所述属性值边界预测任务的具体步骤为:[0038]构建相应的训练集;[0039]利用所述训练集训练模型直至损失函数收敛,所述损失函数包括各个字作为起始位置的losss和终止位置的losse:[0040][0041][0042]其中,和是真实属性值的边界表示。[0043]优选地,所述属性抽取模型的训练过程包括文本属性类型分类任务,所述文本属性类型分类任务的具体步骤为:[0044]将所述训练集中文本和问题在所述bret模型的cls token输出表示与作为文本特征表示和属性类型特征表示;[0045]利用多头注意力机制使与进行交互,得到综合分类特征hatt;[0046]利用分类器根据所述综合分类特征训练判断文本中是否存在与待抽属性类型相关的所述待抽属性值,以便使模型更关注于文本中与待抽取属性相关的属性值,损失函数为:[0047][0048]其中,yj表示真实类别真实值,pj表示第j类属性类型的预测值。[0049]本发明还提供了一种属性抽取的装置,包括:[0050]输入模块,用于将预处理后的问题和文本输入预先训练好的属性抽取模型中,所述问题是mask标记代替头尾实体后的三元组,即为结构化信息;[0051]编码模块,用于利用bert模型计算得到问题全局向量表示和第一文本全局向量表示,并对所述第一文本全局向量表示经过双向长短期记忆层bi-lstm编码得到第二文本全局向量表示;[0052]交互模块,用于利用多头注意力机制将所述第二文本全局向量表示与所述问题全局向量表示进行交互后得到具有问题结构化信息泛化特征的文本全局向量表示;[0053]分词模块,用于将文本输入自动分词工具得到该文本的分词结果和分词向量表示;[0054]词边界增强模块,用于根据所述分词结果中词语首尾标签的绝对位置索引,在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入所述分词向量表示,得到最终文本向量表示;[0055]抽取模块,用于预测所述最终文本向量表示中待抽属性值边界,获得目标属性值。[0056]本发明还提供了一种属性抽取的设备,包括:[0057]存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现上述一种属性抽取的步骤。[0058]本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述一种属性抽取的方法的步骤。[0059]本发明的上述技术方案相比现有技术具有以下优点:[0060]本发明将属性抽取任务化为片段抽取式阅读理解任务,模型以bert-bi-lstm作为编码模块,分别对输入文本与问题编码,将三元组中的头尾实体采用mask标签进行标注,在使用上下文信息的同时也不暴露标签,该结构化信息作为问题,增强了模型的泛化能力;而双向长短期记忆层可综合文本的正向和反向信息,使得模型充分捕获了文本的时序特征和语义特征;使用词边界特征增强的方法以帮助模型捕获属性值的边界特征,词边界特征增强方法基于分词结果,在词汇的起始位置和终止位置加入完整的词汇信息,然后利用多头注意力机制使分词向量与文本全局特征交互,以融入词汇信息。词边界特征强化了模型对属性值首尾位置的判断,加深了模型对属性值边界的把控、有助于模型对句子结构的理解,帮助模型识别更多的未登录词。本发明利用词边界信息和文本属性特征,缓解机器阅读理解模型中无答案数据难以利用,以及属性抽取任务中未登录词难以抽取的问题,从而有效提高实体属性抽取的效果。附图说明[0061]为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明,其中:[0062]图1是本发明属性抽取的实现流程图;[0063]图2是本发明词汇增强模块的具体结构图;[0064]图3是本发明属性抽取模型的整体结构图;[0065]图4是本发明实施例提供的一种属性抽取的装置的结构框图。具体实施方式[0066]本发明的核心是提供一种属性抽取的方法、装置、设备及计算机存储介质,充分获取上下文信息,并提高了模型的泛化能力。[0067]为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。[0068]请参考图1,图1为本发明所提供的属性抽取的实现流程图;具体操作步骤如下:[0069]s101:将预处理后的问题和文本输入预先训练好的属性抽取模型中,所述问题是mask标记代替头尾实体后的三元组,即为结构化信息;[0070]所述问题和文本在输入前会被预处理为“[cls]+文本+[sep]”、“[cls]+问题+[sep]”的形式;[0071]三元组为头实体-属性-尾实体(属性值);[0072]问题被mask标记代替头尾实体后为“[cls]+[mask]属性[mask]+[sep]”。[0073]s102:利用bert模型计算得到问题全局向量表示和第一文本全局向量表示,并对所述第一文本全局向量表示经过双向长短期记忆层bi-lstm编码得到第二文本全局向量表示;[0074]bert采用堆叠式12层相同的transformer encoder架构,能够从不同角度获取文本的全局特征,每层均由多头注意力层和前馈神经网络两个子结构组成,每个子结构的输出分别经过残差连接以及层正则化(layer normal)。多头注意力能够得到多个子空间的自注意力向量,并将所有子空间的向量拼接,得到多头注意力的输出。u表示多头注意力向量,表示子空间的注意力向量。前馈神经网络将多头注意力层的输出进行投影。[0075]u=concat(u1,u2…uh)wu,[0076]ffn(x)=max(0,xw1+b1)w2+b2,[0077]对所述问题q和所述文本s进行分词,对中文分词后输出的是字,并将这些字转化成对应的id作为模型的输入,每一个字由一个标记的词向量te(wi),区分两个不同句子的词向量se(wi),以及位置词向量pe(wi)组成,即e(wi)=te(wi)+se(wi)+pe(wi),得到问题与文本的向量表示;[0078]将所述问题与文本的向量表示输入所述bert模型后得到编码后的所述问题全局向量表示和所述第一文本全局向量表示和所述第一文本全局向量表示其中为bert编码后问题中每个字符的向量表示,为bert编码后文本中每个字符的向量表示;[0079]考虑到循环神经网络适用于建模序列化数据,但在训练过程中存在梯度消失或梯度爆炸的问题,且难以处理远距离依赖。因此,采用bi-lstm进一步综合文本时序特征。使用所述双向长短期记忆层bi-lstm对所述第一文本全局向量表示xs编码,得到所述第二文本全局向量表示其中为bi-lstm编码后文本中每个字符的向量表示;[0080]计算所述第一文本全局向量xs的隐状态表示,得到编码后的所述第二文本全局向量表示[0081]所述每个时刻i的隐状态oi由前向lstm的隐状态和后向lstm的隐状态拼接得到,计算公式如下:[0082][0083][0084][0085]s103:利用多头注意力机制将所述第二文本全局向量表示与所述问题全局向量表示进行交互后得到具有问题结构化信息泛化特征的文本全局向量表示;[0086]s104:将所述文本输入自动分词工具得到该文本的分词结果和分词向量表示;[0087]s105:根据所述分词结果中词语首尾标签的绝对位置索引,在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入所述分词向量表示,得到最终文本向量表示;[0088]所述文本分词结果中的词语位置表示为:[0089][ai,ti]={p1[a1,t1],p2[a2,t2]…pn[an,tn]},其中ai、ti分别表示每个词语在文本中的所述首尾标签的绝对位置索引,pn表示第n个词;[0090]在所述具有问题结构化信息泛化特征的文本全局向量表示在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入经bi-lstm并归一化后的含有词语时序特征的所述分词向量表示v,得到最终文本向量表示hv。[0091]模型的解码操作依赖于定位属性值的起始和结束位置以完成属性值的抽取。因此,词边界特征增强方法采用加强属性值首尾边界特征帮助模型判断属性值边界。词汇增强模块旨在bert-bi-lstm编码的基础上融入词汇信息,提高模型对属性值边界的把握。词汇增强模块由两部分构成,分别为词边界特征增强与文本-分词信息交互两部分。词边界特征增强方法基于分词结果,在词汇的起始位置和终止位置加入完整的词汇信息。文本-分词信息交互主要利用多头注意力机制使分词向量与文本全局特征交互,以融入词汇信息。[0092]s106:预测所述最终文本向量表示中待抽属性值边界,获得目标属性值。[0093]采用两个线性层分别预测所述最终文本向量中每个字作为起始位置s与终止位置e的概率,概率值越接近1表明该字作为起始位置或终止位置的可能性越大:[0094]si=sigmoid(fnn(hv))[0095]ei=sigmoid(fnn(hv)[0096]其中,si表示文本第i个字作为属性值起始位置的概率,ei表示文本第i个字作为属性值结尾位置的概率,和通过参数不同结构相同的全连接层计算得出,通过对每个字单独进行分类判断其是否为起始位置,可以得到多个起始位置,同理也可得到多个结束位置;[0097]将所述起始位置与其相应的结束位置作为所述目标属性值的坐标。[0098]本发明将属性抽取任务化为片段抽取式阅读理解任务,模型以bert-bi-lstm作为编码模块,分别对输入文本与问题编码,将三元组中的头尾实体采用mask标签进行标注,在使用上下文信息的同时也不暴露标签,该结构化信息作为问题,增强了模型的泛化能力;而双向长短期记忆层可综合文本的正向和反向信息,使得模型充分捕获了文本的时序特征和语义特征;使用词边界特征增强的方法以帮助模型捕获属性值的边界特征,词边界特征增强方法基于分词结果,在词汇的起始位置和终止位置加入完整的词汇信息,然后利用多头注意力机制使分词向量与文本全局特征交互,以融入词汇信息。词边界特征强化了模型对属性值首尾位置的判断,加深了模型对属性值边界的把控、有助于模型对句子结构的理解,帮助模型识别更多的未登录词。本发明利用词边界信息和文本属性特征,缓解机器阅读理解模型中无答案数据难以利用,以及属性抽取任务中未登录词难以抽取的问题,从而有效提高实体属性抽取的效果。[0099]基于以上实施例,本实施例对s104-s105的词语增强模块进行进一步详细说明,具体如下:[0100]分词向量输入bi-lstm经归一化后获得含有词语时序特征的分词向量表示v。然后基于词语首尾标签的绝对位置索引,在全局特征向量的对应位置加入词汇信息词边界特征增强的向量表示。[0101]以图2为例,输入文本为“米黄色毛衣”,首先输入文本经bert-bi-lstm模块编码。同时,使用ltp对文本分词,得到分词结果{“米黄色”,“毛衣”}及其对应的分词向量表示v={v1,v2}。然后,为便于确定词汇边界在文本中的实际位置,基于分词结果得到各个词语的绝对位置表示p[si,ei]={p1[1,2],p2[3,5]}。最后,基于词语的边界绝对位置在对应文本特征向量上加入完整的词汇向量,得到最终文本向量表示[0102]基于以上实施例,本实施例对本发明模型的训练过程进行进一步详细说明,具体如下:[0103]训练属性抽取模型包括属性值边界预测任务:[0104]清洗语料,构建相应的训练集;[0105]利用所述训练集训练模型直至损失函数收敛,所述损失函数包括各个字作为起始位置的losss和终止位置的losse:[0106][0107][0108]其中,和是真实属性值的边界表示。[0109]由于现有技术未能结合外部知识强化模型对属性类型的理解,所以我们训练属性抽取模型还包括文本属性类型分类任务:[0110]将所述训练集中文本和问题在所述bret模型的cls token输出表示与作为文本特征表示和属性类型特征表示;[0111]利用多头注意力机制使与进行交互,得到综合分类特征hatt;[0112]利用分类器根据所述综合分类特征训练判断文本中是否存在与待抽属性类型相关的所述待抽属性值,以便使模型更关注于文本中与待抽取属性相关的属性值,损失函数为:[0113][0114]其中,yj表示真实类别真实值,pj表示第j类属性类型的预测值。[0115]利用属性值边界预测任务和文本属性类型分类任务联合训练,损失为loss=lossclass+losss+losse。[0116]我们在测试集上进行模型(如图3所示)预测,通过与其它基线模型对比,发现基于词边界特征增强的方法取得了最好的效果,模型泛化能力明显提升。[0117]本发明将属性抽取任务化为片段抽取式阅读理解任务,采用属性抽取与文本属性判断联合训练的多任务模型。模型以bert-bi-lstm作为编码模块,分别对输入文本与问题编码,将结构化信息作为问题来增强模型的泛化能力。然后使用词边界特征增强的方法以帮助模型捕获属性值的边界特征,结合多头注意力机制在全局向量特征的基础上融入词汇特征。同时,设计一种文本特征交互方法,用于判断文本中是否存在与问题对应的属性值,该方法作为辅助任务与属性值边界预测任务联合训练。本发明一方面,词边界特征强化了模型对属性值首尾位置的判断,加深了模型对属性值边界的把控,能帮助模型识别更多的未登录词;另一方面,结合文本属性特征感知任务辅助模型,进一步帮助模型提高对属性类型的敏感程度,解决模型对属性类型理解不充分的问题,使模型能够更加关注文本中与待抽取属性相关的属性值。综上两点,属性抽取系统的整体性能得到有益提升。[0118]请参考图4,图4为本发明实施例提供的一种属性抽取的装置的结构框图;具体装置可以包括:[0119]输入模块100,用于将预处理后的问题和文本输入预先训练好的属性抽取模型中,所述问题是mask标记代替头尾实体后的三元组,即为结构化信息;[0120]编码模块200,用于利用bert模型计算得到问题全局向量表示和第一文本全局向量表示,并对所述第一文本全局向量表示经过双向长短期记忆层bi-lstm编码得到第二文本全局向量表示;[0121]交互模块300,用于利用多头注意力机制将所述第二文本全局向量表示与所述问题全局向量表示进行交互后得到具有问题结构化信息泛化特征的文本全局向量表示;[0122]分词模块400,用于将所述文本输入自动分词工具得到该文本的分词结果和分词向量表示;[0123]词边界增强模块500,用于根据所述分词结果中词语首尾标签的绝对位置索引,在所述具有问题结构化信息泛化特征的文本全局向量表示的对应位置加入所述分词向量表示,得到最终文本向量表示;[0124]抽取模块600,用于预测所述最终文本向量表示中待抽属性值边界,获得目标属性值。[0125]本实施例的基于机器视觉的表面缺陷检测装置用于实现前述的属性抽取方法,因此属性抽取装置中的具体实施方式可见前文属性抽取方法的实施例部分,例如,输入模块100,编码模块200,交互模块300,分词模块400,词边界增强模块500,抽取模块600,分别用于实现上述属性抽取方法中步骤s101,s102,s103,s104,s105和s106,所以,其具体实施方式可以参照相应的各个部分实施例的描述,在此不再赘述。[0126]本发明具体实施例还提供了一种属性抽取的设备,包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序时实现上述一种属性抽取的方法的步骤。[0127]本发明具体实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述一种属性抽取的方法的步骤。[0128]本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。[0129]本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。[0130]这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。[0131]这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。[0132]显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部