发布信息

一种预训练语言模型的构建方法及系统 专利技术说明

作者:admin      2022-11-26 11:24:32     763



计算;推算;计数设备的制造及其应用技术1.本技术涉及自然语言处理技术,具体涉及一种预训练语言模型的构建方法及系统。背景技术:2.现有的预训练模型通过在文本数据上的大规模预训练的这一崭新的训练手段,大幅提高了模型相比于之前的人工智能模型的表现,使得基于预训练技术产生的模型成为人工智能研究领域的新主流并在各个工业领域和学术领域都得到了广泛的应用,但是现有技术依旧有其局限性。3.尽管预训练模型是人工智能模型的新一代演进,但是实际上其依旧不能称之为智能模型,这是因为预训练模型并不能像人类一样进行思考,预训练模型的知识均来自于对大规模文本的学习。因此尽管预训练模型能在许多任务上达到较高的预测准确率,但是其并不能做出人类一样的学习行为。这一点主要体现在人工智能模型多数是一个黑箱(black box)模型,即当我们给一个输入时,模型会给出一个输出,而黑箱意味着从输入到输出的不可解释性。通俗的来说,即模型给出了一个正确的输出,但是并不能解释给出该输出的原因。技术实现要素:4.本技术将人类的眼球运动轨迹捕捉数据与心理语言学关于人类语言学习的相关理论进行结合,并设计新的训练手段和方法,将这两者与预训练模型进行进一步的融合,使得预训练模型具有一定程度的人类认知特征,从而使得模型更加的智能的同时还能够得到比原本的模型更加优秀的任务表现。5.为实现上述目的,本技术提供了一种预训练语言模型的构建方法,包括以下步骤:6.收录认知语言数据和眼动数据;7.根据所述认知语言数据诱导出细化的粒度的认知特征;8.将加权之后的各所述认知特征和所述眼动数据纳入bert中进行训练,得到一种预训练语言模型。9.可选的,所述认知语言特征包括:细粒度的句法结构特征和心理语言学特征。10.可选的,提取所述心理语言学特征的方法包括:11.构建初始认知特征集;12.根据所述认知特征集提取若干细粒度的认知特征;13.将所述认知特征分为下层特征和上层特征。14.可选的,过滤所述眼动数据中统计学上不重要的所述心理语言学特征。15.可选的,所述加权的方法包括:16.给定一个句子,确定该句子的可读性评估得分v和一层hcls的 [cls]标记的嵌入;[0017]将所述可读性评估得分v和所述hcls的[cls]标记的嵌入映射到一个八维向量o;[0018]计算各所述认知特征的集合t与所述八维向量o的哈达玛积,得到加权后的特征集t'。[0019]本技术还提供了一种预训练语言模型的构建系统,包括:收录模块、诱导模块和训练模块;[0020]所述收录模块用于收录认知语言数据和眼动数据;[0021]所述诱导模块用于根据所述认知语言数据诱导出细化的粒度的认知特征;[0022]训练模块用于将加权之后的各所述认知特征和所述眼动数据纳入bert中进行训练,得到一种预训练语言模型。[0023]可选的,利用所述诱导模块提取心理语言学特征的工作流程包括:[0024]构建初始认知特征集;[0025]根据所述认知特征集提取若干细粒度的认知特征;[0026]将所述认知特征分为下层特征和上层特征。[0027]可选的,所述训练模块确定权重的工作流程包括:[0028]给定一个句子,确定该句子的可读性评估得分v和一层hcls;[0029]将所述可读性评估得分v和所述hcls映射到一个八维向量o;[0030]计算各所述认知特征的集合t与所述八维向量o的哈达玛积,得到加权后的特征集t'。[0031]本技术的有益效果为:[0032]本技术通过将人类的眼球运动轨迹捕捉数据与心理语言学关于人类语言学习的相关理论进行结合,并设计新的训练手段和方法,将这两者与预训练模型进行进一步融合,通过这一方法,能够使得预训练模型具有一定程度的人类认知特征,从而使得模型更加智能的同时还能够得到比原本的模型更加优秀的任务表现。附图说明[0033]为了更清楚地说明本技术的技术方案,下面对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。[0034]图1为本技术实施例中的方法流程示意图;[0035]图2为人类注意力示意图;[0036]图3为bi-lstm模型示意图;[0037]图4为cogbert模型示意图;[0038]图5为本技术系统结构示意图;[0039]图6为特征插入层实验示意图;[0040]图7为模型的输出注意力示意图。具体实施方式[0041]下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。[0042]为使本技术的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本技术作进一步详细的说明。[0043]实施例一[0044]如图一所示为本技术方法流程示意图,主要解决的问题是将认知语言处理信号整合到预先训练好的语言模型中。现有的方法通常是在在认知数据上对预训练的模型进行微调,从而使识别文本和认知信号之间的语义差距。[0045]为了填补这一空白,本技术提出了cogbert,一个可以从认知数据中诱导出细化的粒度的认知特征,并将认知特征纳入bert并通过自适应调整认知特征的权重,将认知特征纳入bert中并适应性地调整不同自然语言处理任务的认知特征的权重,广泛的实验表明了所提出的模型具有如下的相关特性:[0046](1)认知指导下的预训练模型在10个任务上的表现始终优于基本预训练模型;本技术在10个自然语言处理任务上比基本的预训练模型表现更好。[0047](2)不同的认知特征对不同的自然语言处理任务有不同的贡献。基于这个观察,本技术给出了一个细化的解释,这也有助于了解为什么认知数据对自然语言处理有帮助。[0048](3)预训练模型的不同转换层其他不同的转换层应该编码不同的认知特征,即词汇层面的认知特征在底部和语义层面的认知特征在顶部。[0049](4)注意力的可视化证明了cogbert与人类的眼动数据模式相一致,并且提高了其自然语言的理解能力。[0050]预训练的模型,如bert、gpt和roberta,给自然语言处理任务带来了较大的表现改进。现有的工作主要是通过微调预训练的模型来预测语言诱导的大脑记录,从而纳入认知信号。[0051]然而,这类工作不能对认知数据为何对自然语言处理有帮助给出精细的分析和解释,而对于这一点的进一步研究对于指导未来受认知启发的自然语言处理研究非常重要,即应该从认知数据中诱导出什么样的认知特征,以及这些认知特征如何有助于自然语言处理任务。[0052]例如,图2显示了以英语为母语的人的眼球追踪数据,其中图 2(a)行说明了人类在正常阅读过程中的固定次数。图2(b)行和(c)行分别显示了在自然语言处理任务中的情感分类和命名实体识别的固定次数。可以看到,对于同一个句子,在不同的自然语言处理任务下,人类的注意力是不同的。特别是,在情感分类任务中,人们更关注情感词,如“new”和“huge improvement”,这一类往往会带来正面评价的词。而对于命名实体识别任务,人们倾向于关注命名的实体词,如“apple”和“airpods”。现有的研究不能通过简单地在认知数据上微调预先训练好的模型来给出这种细粒度的分析。[0053]为了促进这一点,本技术提出了cogbert,一个认知指导的预训练模型。具体地,本技术专注于使用眼球追踪数据的来提高当前预训练语言模型,该数据通过追踪眼球运动和测量固定时间来提供母语者的眼球追踪信息。首先根据心理语言学认知理论提取经过spacy分类之后的特征。然后,过滤掉眼动数据中统计学上不重要的特征,这意味着具有这些特征的单词的人类注意力并不明显高于/低于单词的平均注意力。随后,通过在不同的自然语言处理任务上进行微调,将这些经过认知验证的特征纳入bert。在微调过程中,根据不同的自然语言处理任务为每一类特征学习不同的权重。[0054]结果表明,cogbert可以在三个基准数据集上的十个自然语言处理任务中表现得更好。[0055]cogbert所使用的特征及其相关分类如表1所示:[0056]表1[0057][0058]cogbert以两阶段的方式进行工作。第一阶段是从文本中诱导出认知特征,并在人类阅读信号的指导下为这些特征分配权重。在第二阶段,将认知特征整合到bert中,并为不同的自然语言处理任务学习任务特定的特征权重。[0059]心理语言学研究表明,人类阅读能力的获得主要体现在两个方面, 包括:下层线索和上层线索。下层线索包括语音和形态等特征,对于下层特征的识别随着阅读者的重复和练习而变得准确和自动。同时,上层线索包括语言结构和语义理解等,相互促进,并与下层结构交织在一起,形成一个熟练的读者。在本实施例中,构建了一个初始认知特征集,包括使用spacy工具从文本中提取的46个细粒度的认知特征,并将其分为下层特征(单词级)和上层特征(语义/语法级)。[0060]然而,并不是所有的认知特征在眼球追踪数据中都具有统计学意义。因此,本技术过滤掉了具有这些特征的词语的人类注意力不明显高于/低于词语的平均注意力的认知特征,保留了14个可用的认知特征,并将它们归为表1所示的8个独立特征。[0061]通过使用spacy工具从文本中提取特征。然而,这些特征不应该被赋予相同或随机的权重,因为它们对适应人类对句子的理解的贡献是不同的。因此,如图3所示,给定一个输入句子s={s1,s2,…,sl} 有l个单词,通过训练一个两层的bi-lstm,将每个单词嵌入到一个加权的八维认知特征向量。[0062]根据认知理论,认知特征可以解释人类凝视信息的分配。因此,本实施例使用眼球追踪数据的人类关注次数信息作为监督信号来训练bi-lstm。本实施例采用均方误差损失其中x∈rl是预测的固定次数得分,y∈rl是预测目标值得分。[0063]为了避免预测不合理的特征分数,本实施例还计算了预测的特征分数plf={pl1,…,plr}∈rl×r与预测目标值qlt={ql1,…,qlr}∈rl×r;例如:如果一个词wi是一个命名实体识别词,它的预测特征分数在命名实体识别的特征维度上是1,把它表示为损失其中r为特征数量。然后用losst=lossg+ lossf的目标来训练模型。[0064]通过训练bi-lstm模型,得到了不同线索的预测特征向量,这些特征向量是通过模仿人类的阅读行为来学习的,一个预测目标值特征分数被用来限制特征向量的预测,以定位在一个合理的数值范围,这两个过程分别对应于lossg和lossf,预测的特征向量将在以下过程中被用于纳入预训练的模型。[0065]通过bi-lstm,如果一个句子的长度是l,采用bi-lstm模型预测的特征向量来生成特征向量和矩阵,过程如下:[0066]1.对于下层句子,bi-lstm模型直接输出每个词的每个维度的加权认知分数,使得下层句子的每个特征形成一个长度为的向量。[0067]2.对于上层词组,由于上层词组的特征应该被理解为一个群体,所以上层词组的每个特征形成一个长度为的矩阵。例如,名词短语或句法关系中的单个词没有实际意义,除非它们与对应的词组合在一起,形成一个有意义的单元。因此,每个上层线索特征形成一个矩阵,矩阵的加权认知分数是bi-lstm模型在该维度的平均输出。[0068]此外,在学习不同的自然语言处理任务时,不同的认知特征也被赋予了不同的权重。例如,对于情感分类任务,情感词特征应该比其他特征更重要。为了解决这个问题,利用flesch可读性评估来评估认知特征对不同自然语言处理任务的句子可读性的贡献。具体地,使用不同的特征权重组合来适应flesch可读性,学习对难读的句子使用什么特征组合,对易读的句子使用什么特征。[0069]形式上,本实施例采用了flesch可读性评估得分和v一层hcls的[cls]标记的嵌入来控制不同特征的权重。给定一个句子s,一个句子中的单词数为sw,一个句子中的音节数为ss。那么这个句子的可读性得分计算为其中v(s)中的常数是来自之前研究的人工经验值。[0070]由于v∈r1是一个一维数,hcls∈rn×1是一个的维度向量,对于 bert-base来说n=768,认知特征集t包含八个特征,包括{t1,...,tr}。这些认知特征是由bi-lstm模型产生的。首先,将v和hcls映射到一个八维向量o,为每个特征分配一个合理的权重。[0071]如图4所示,将v和hcls映射为正态分布的b~norm(0,σ2)方差集σ={σ1,...σr},其中b的平均值为零,σ的计算方法为:[0072][0073]其中是hadamard积,f是tanh激活函数。n∈r1×r是一个映射向量,m∈rn×r是一个映射矩阵。然后计算出加权的特征集t′:[0074][0075][0076]其中o是从正态分布b中抽取的特征权重,样本点x=0。[0077]本实施例把不同的认知特征放在不同的层中,其中低层的特征嵌入到低层,高层的特征嵌入到高层。使用卷积神经网络来计算下层特征和上层特征的特征增强的注意力得分,分别表示为ml∈rl×l和 mu∈rl×l。[0078]ml=diag(1dcnn(t1,t2,t3,t4))[0079]mu=diag(1dcnn(t1,t2,t3,t4)[0080]mu=2dcnn(t5,t6,t7,t8)。[0081]其中diag指的是将1dcnn的输出填充到特征增强注意力矩阵的对角线上,,1dcnn和2dcnn指的是一维和二维的cnn网络。然后得到特征增强的下层注意矩阵a'l∈rl×l和高层注意力矩阵a'u∈rl×l。[0082][0083][0084]gl=f(jthl),gu=f(jthu)[0085]其中al∈rl×l和au∈rl×l是低层和高层预训练模型的原始注意矩阵。g∈rk×l是每个transformer头的门控向量,用于平衡原始注意力和特征增强注意力的组合。h={hcls,h0…,hl}∈rn×l是输入句子s的嵌入,其中hcls是由bert产生的[cls]标记的嵌入。j∈rn×k是一个映射矩阵,将h映射到门向量g,k是转换头的数量。这个过程对所有预训练模型的层都是一样的。本技术系统结构示意图如图5所示。[0086]实施例二[0087]下面将结合本实施例,通过以下几个人工智能领域的评价框架来说明本技术在解决实际问题上的优越性。[0088]1.glue benchmark:这一评价框架包含了数个人工智能领域的相关任务,包括了情感识别、转述句识别、问答推理、文本蕴含、文本语法可接收性、文本相似度识别、多类型文本推理和疑问句相似度判别。[0089]2.conll2000 chunking任务:该任务出自conll评测会议,该会议由国际计算语义学会自然语言学习特别兴趣组(acl’s specialinterest group on natural language learning)举办,本实施例所选用任务选自于conll2000会议中的chunking任务,该任务要求模型要能够识别文本中的语义块,即能够组成具体意义的一段文字,并在原文本当中进行标注。[0090]3.conll2003命名实体识别任务:该任务选自于conll2003会议中的命名实体识别任务,该任务要求模型能够识别文本当中的实体信息,即能够识别具体在现实世界中存在的实体,例如公司,组织,机构,时间等,并在原本的输入文本当中进行标注。[0091]4.人类眼动数据预测任务:该任务主要目标为要求模型能根据输入的文本,预测每一个词会被人类在多大程度上关注,例如人类会在某一个词上的驻留时间或者驻留次数,该预测任务主要由之前关于人类眼动数据的相关研究构成,例如zuco 1.0,zuco 2.0,geco数据等,这些数据通过特殊的捕捉设备记录了人类阅读文本时的眼球观测数据,本任务的目的是为了让模型来对人类的眼动数据进行预测。[0092]glue实验效果[0093]glue benchmark是一组测试模型理解自然语言能力的任务。采用transformer、bert、roberta和t5中实施本技术的方法。结果如表2所示。[0094]表2[0095][0096]由表2可见:[0097](1)与bert和roberta相比,cogbert取得了更好的结果。[0098](2)syntax-bert与cogbert的比较表明,认知特征可以进一步提高bert在自然语言处理任务上的性能。这主要是因为本技术使用的认知特征,一方面包括细粒度的句法结构特征。另一方面,本技术涉及更多的心理语言学特征,并通过眼动数据进行验证。[0099](3)cogbert优于fmri-eeg bert和eye-tracking bert,这表明在认知数据上的微调不能完全发挥认知数据的价值。通过从认知数据中诱导出细粒度的认知特征,可以为这一工作思路提供一个新的视角。[0100](4)与cogbert(随机)相比,cogbert取得了持续更好的表现,这证实了不同的认知特征对大脑的语言理解有不同的贡献。学习加权的认知特征向量对cogbert是有效的。[0101]序列标注实验结果如表3所示:[0102]表3[0103][0104]除了glue benchmark,本实施例还在两个序列标签基准数据集上评估了cogbert。conll-2000用于文本分块,conll-2003用于命名实体识别。结果见表3,命名实体识别的结果如表2所示。对于 chunking和命名实体识别任务,cogbert的np chunk和命名实体识别特征权重设置为0,以确保特征的数据没有没有数据泄漏。[0105]本实施例将cogbert与seqvat进行了比较,后者使用虚拟对抗训练来提高模型的性能和鲁棒性,在conll-2000文本分块任务上。本技术的方法在基准数据集上的表现优于所有基线,这表明cogbert 也可以使序列标签任务受益。[0106]眼动数据预测实验效果如表4所示:[0107]表4[0108][0109]cogbert不仅可以用于自然语言处理任务,还可以用于大脑的语言理解。同时,本实施例评估了cogbert在眼球跟踪预测上的有效性,使用三个眼球跟踪基准数据集,包括zuco(zuco 1.0和zuco 2.0), geco(en)和geco(nl)。这项任务测试了模型在八个人类眼球动作特征上学习人类阅读行为的能力,包括首次阅读时间、总阅读时间、固定次数、平均固定时间、首次通过时间、固定比例、再注意次数和重新阅读比例。任务的表现是由100减去平均绝对误差来评估的。[0110]本实施例还与bert-en、bert-nl、bert-multi和xlm进行比较。 cogbert分别基于bert-en和bert-nl,结果如表4所示。[0111]结果表明,cogbert的性能优于bert-en、bert-nl、bert-multi 和xlm-17,并取得了与xlm-100相当的性能,尽管cogbert是基于 bert的,且只基于一种语言进行了预训练,而xlm-100则对100多种语言进行了预训练。这也显示了从认知数据中诱导出的认知特征对于理解和解释人类眼动行为的有效性。[0112]表5[0113][0114]如表5所示,本实施例进行了一个cogbert的解释性测试,以输出cogbert在不同任务中的特征权重。本实施例中展示了文本语法可接收性、转述句识别、文本蕴含、conll-2000chunking和conll-2003 命名实体识别任务中的特征权重,特征权重c'f∈ri按数据大小和特征密度的比例计算如下:[0115][0116][0117]c'f=cs/max(cs)ꢀꢀ(3)[0118]其中一个任务的数据大小为z∈rz,cogbert的12层平均特征权重为c∈rr×z,特征密度为fd∈rr。cs是由fd缩放的特征权重,任务中每个特征的计数为u∈rr×z;例如:如果一个训练例子中有3个实体词,这个例子的命名实体识别特征计数为3。[0119]cogbert可以在各种任务中为不同的特征分配合理的权重。在语言可接受性判断任务中,cogbert将名词短语评价为最重要的特征,并给其他语法相关的特征打高分。例如:在一个句子转述任务中,cogbert认为命名实体识别和情感是两个最重要的特征。因为如果两个句子没有共享相同的实体和情感,它们可能不是一个转述。而在一个文本蕴含任务中,cogbert认为np chunk是最重要的特征,这可能是因为如果一个句子可以从另一个句子中推断出来,它们可能有类似的短语结构或意义。所以在conll-2000chunking和conll-2003命名实体识别任务中,cogbert分别将np chunk和实体列为最关键的特征。[0120]表6[0121][0122]如表6所示,通过对cogbert在下游任务上的表现有关的几个因素进行重要性研究;并在情感识别,转述句识别和问答推理的开发集上得到实验结果。可知,替换下层或上层的认知特征会导致模型性能的下降,而去除所有层的认知特征会进一步影响模型性能。[0123]同时,尽管可读性对于模型来说没有认知特征那么重要,但去除它也会损害性能。不分层是指将所有的特征整合到bert的每一层,证明以分层的方式纳入特征是认知增强自然语言处理的有效方式。[0124]特征插入层分析[0125]如图6所示,为对情感识别、转述句识别、问答推理和geco(en) 任务的开发集的比较实验,用于确定bert的哪一层应该是下层和上层认知特征的边界,其中左边和右边的y轴分别是自然语言处理和眼球追踪预测任务的性能。x轴是特征嵌入所在的层,例如,如果层数为6,则将下层认知特征纳入bert的1-6层,上层认知特征纳入其余层。[0126]其中,以第4层为界,所有任务的表现都达到了最佳,这意味着 bert的低层更适合低层线索认知特征,而高级线索认知特征在高层更有用,这一实验结果可以有效地指导未来认知增强预训练模型的研究。[0127]为了定性地分析本技术方法的有效性,将cogbert的注意力进行可视化,并与bert的注意力和人类进行比较。从情感识别、命名实体识别和转述句识别任务中选择案例。为了与人类的认知进行比较,给定一个特定的自然语言处理任务,本实施例设定四个标注者,在阅读输入的句子时标注他们的注意词。从预训练模型的高层中选择注意力矩阵,这些分数可以捕捉到特定的任务特征。图7说明了情感识别和命名实体识别的注意力可视化。[0128]图7(a)展示了conll-2003命名实体识别任务的注意力可视化,说明cogbert像人类一样对命名实体识别词“asian cup”、“japan”和“syria”给予更多的关注,而bert对这些词的关注很少。图7(b) 展示了情感识别任务的注意力可视化,显示cogbert捕捉到了关键的情感词“fun”和“okay”,这两个词从人类的判断来讲也十分重要。相比之下,bert未能关注这些词。这些实验结果表明,认知指导的预训练模型可以通过学习人类的阅读行为从而接近人类的认知。[0129]以上所述的实施例仅是对本技术优选方式进行的描述,并非对本技术的范围进行限定,在不脱离本技术设计精神的前提下,本领域普通技术人员对本技术的技术方案做出的各种变形和改进,均应落入本技术权利要求书确定的保护范围内。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部