发布信息

一种基于内容的讲座客观评价方法及系统与流程 专利技术说明

作者:admin      2022-11-26 11:05:26     818



计算;推算;计数设备的制造及其应用技术1.本发明涉及会议信息技术处理领域,尤其涉及一种基于内容的讲座客观评价方法及系统。背景技术:2.当今社会,讲座作为知识分享的重要渠道,越来越受到人们的重视,人们也愿意为参加讲座而付费,在知识分享的大趋势下,承担着知识分享的重要载体讲座,其内容质量的好坏十分影响人们的感受;而对于讲座进行评价的手段却十分有限,依照评分标准表进行讲座评分的这种模式,也增加评审人员的时间负担,现有的打分技术主要分为两类:一类是打分员与评分者进行实地探访,实际的听一节专家的讲座,然后将听课的表现记录在案,综合多个听课的打分员的意见后,得到该专家打分的分数;另一类是以会后评价的形式,收集到会议结束后,参会人员对讲台上的老师的评价和意见,对这些得到的意见,进行汇总整理,最后得到这个专家的分数和提升建议,上面所说的这些方法,在日常打分评价中,存在两个比较大的缺陷,其一是对于专家和评委,在对会议进行打分时,需要完整的听完一节讲座,才能评分,如果会议数量多,就会出现会议进行后打分的专家却因人手不足无法打分,进而影响计划进行;其二是全部依靠讲座结束后参与人员的主观打分评价的话,无法很好的保证这个评分的客观性和公正性,同时人具有从众心理,大家的倾向容易被相互影响,综上所述,现有技术还存在着部分不足之处,难以解决,影响讲座效率。技术实现要素:3.为了解决上述技术问题,本发明的目的是提供一种基于内容的讲座客观评价方法及系统,能够有效的对会议主讲人的讲话内容进行客观的评价且提高了系统评价计分的效率。4.本发明所采用的第一技术方案是:一种基于内容的讲座客观评价方法,包括以下步骤:5.采集讲座主讲人的语音信息;6.对语音信息进行数据预处理,构建讲座文本模型;7.对讲座文本模型进行内容检测并计算评分,输出讲座文本模型分数。8.进一步,所述对语音信息进行数据预处理,构建讲座文本模型这一步骤,其具体包括:9.根据预设的分段规则对讲座主讲人的语音信息进行分段处理,得到多段语音信息;10.对多段语音信息进行分贝检测与音色标记处理,得到检测结果与标记结果;11.对检测结果与标记结果进行筛选处理,得到处理后的语音信息;12.基于语音文字转换技术对处理后的语音信息进行转换处理,构建讲座文本模型。13.进一步,所述对讲座文本模型进行内容检测并计算评分,输出预处理后的讲座文本模型分数这一步骤,其具体包括:14.基于新颖性检测系统,对讲座文本模型进行新颖性检测并计算其得分,输出新颖性得分值;15.基于逻辑性检测系统,对讲座文本模型进行逻辑性检测并计算其得分,输出逻辑性得分值;16.基于综合表达检测系统,对讲座文本模型进行表达检测并计算其得分,输出表达得分值;17.整合新颖性得分值、逻辑性得分值和表达得分值,得到讲座文本模型分数。18.进一步,所述基于新颖性检测系统,对讲座文本模型进行新颖性检测并计算其得分,输出新颖性得分值这一步骤,其具体包括:19.基于摘要抽取模型对讲座文本模型进行摘要抽取,得到讲座文本模型摘要;20.构建训练文本模型,所述训练文本模型为与讲座文本模型方向一致的论文;21.基于摘要抽取模型对训练文本模型进行摘要抽取,得到训练文本模型摘要;22.通过语言表示模型对讲座文本模型摘要和训练文本模型摘要进行转换处理,得到对应的词向量;23.分别计算讲座文本模型摘要词向量和训练文本模型摘要词向量的余弦相似值并根据计算结果进行判断;24.判断到计算结果大于预设阈值,输出训练文本模型中的论文;25.获取训练文本模型中的论文发表时间并与讲座文本模型进行新颖性计算,得到新颖性得分值。26.进一步,所述新颖性的计算过程如下所示:[0027][0028]上式中,t1表示新颖性得分值,datetime表示讲座的举办时间,n表示训练文本模型中论文的数量。[0029]进一步,所述基于摘要抽取模型对讲座文本模型进行摘要抽取,得到讲座文本模型摘要这一步骤,其具体包括:[0030]将讲座文本模型输入至摘要抽取模型,所述摘要抽取模型包括词嵌入层,编码层,解码层;[0031]基于词嵌入层对讲座文本模型进行转换处理,输出讲座文本模型向量;[0032]基于编码层对讲座文本模型向量进行编码处理,得到具有特征集中的讲座文本模型向量;[0033]基于解码层对具有特征集中的讲座文本模型向量进行解码处理,生成讲座文本模型摘要。[0034]进一步,所述基于逻辑性检测系统,对讲座文本模型进行逻辑性检测并计算其得分,输出逻辑性得分值这一步骤,其具体包括:[0035]对讲座文本模型进行划分处理,得到多个讲座文本模型的句子并根据讲座文本模型对句子进行先后顺序排列;[0036]将讲座文本模型的第一句子输入至预训练的生成模型进行预测处理,输出第一预测句子;[0037]将第一预测句子与讲座文本模型的第二句子进行相似度比较,得到比较结果;[0038]对比较结果与预设阈值进行判断,判断到比较结果小于预设阈值,将讲座文本模型的第二句子输入至训练后的生成模型,反之将第一预测句子输入至训练后的生成模型,输出第二预测句子,即可以通过大量的论文文本对本发明的生成模型进行训练,并将训练后的生成模型用于对讲座文本的逻辑性计算;[0039]循环上述预测过程和比较过程,构建相似度集合并计算其逻辑性,得到逻辑性得分值。[0040]进一步,所述基于综合表达检测系统,对讲座文本模型进行表达检测并计算其得分,输出表达得分值这一步骤,其具体包括:[0041]对讲座文本模型进行划分处理,得到讲座文本模型的语句段落;[0042]通过分类模型对讲座文本模型的语句段落进行衔接性判断,得到判断结果;[0043]对判断结果进行演化处理,得到表达得分值。[0044]进一步,所述表达得分值的计算过程如下所示:[0045]t3=arg(erine(pi*α)+erine(p))[0046]上式中,t3表示表达得分值,erine表示分类模型,pi表示讲座文本模型的第i个语句段落,α表示第i个语句段落的权重,p表示讲座文本模型的全部文本内容。[0047]本发明所采用的第二技术方案是:一种基于内容的讲座客观评价系统,包括:[0048]采集模块,用于采集讲座主讲人的语音信息;[0049]构建模块,用于对语音信息进行数据预处理,构建讲座文本模型;[0050]检测模块,用于对讲座文本模型进行内容检测并计算评分,输出讲座文本模型分数。[0051]本发明方法及系统的有益效果是:本发明通过语音转文字技术对会议主讲人的语音信息转换为文本信息并构建一个讲座文本模型,通过新颖性检测系统、逻辑检测系统和综合表达检测系统对讲座文本模型的内容进行新颖性、逻辑性和表达手法等进行判断,并计算其得分,避免了以往复杂的计分手续,能够有效的对会议主讲人的讲话内容进行客观的评价且提高了系统评价计分的效率。附图说明[0052]图1是本发明一种基于内容的讲座客观评价方法的步骤流程图;[0053]图2是本发明一种基于内容的讲座客观评价系统的结构框图;[0054]图3是本发明应用摘要抽取模型生成摘要的步骤流程示意图;[0055]图4是本发明新颖性检测系统的计算流程示意图;[0056]图5是本发明生成模型的内部结果示意图;[0057]图6是本发明逻辑性检测系统的计算流程示意图;[0058]图7是本发明综合表达检测系统的表达示意图。具体实施方式[0059]下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。[0060]参照图1,本发明提供了一种基于内容的讲座客观评价方法,该方法包括以下步骤:[0061]s1、采集讲座主讲人的语音信息;[0062]具体地,通过具有录音功能的仪器设备进行采集讲座主讲人的语音信息;[0063]s2、对语音信息进行数据预处理,构建讲座文本模型;[0064]s21、获取讲座主讲人的语音信息;[0065]s22、根据预设的分段规则对讲座主讲人的语音信息进行分段处理,得到多段语音信息;[0066]具体地,在实际应用中,由于人们说话时每个字之间存在时间间隔,一般情况下,在完整的语句表达完之后的停顿才是本发明实施例中的分段,因此,在确定第一分段点的过程中,当语音信息中的存在某一时刻的分贝值小于预设的分贝值时,判断以该时刻为起始点的语音片段中分贝值均小于预设分贝值时,该语音片段的时长是否大于预设的时长。[0067]s23、对多段语音信息进行分贝检测与音色标记处理,得到检测结果与标记结果;[0068]具体地,待处理的语音信息为需要转化为文字信息的语音信息,通常情况下,为了提高文字转化的准确性,待处理的语音信息一般为经过降噪处理的语音信息,在对语音信息进行降噪处理时,可以利用的预设的音频处理软件进行处理,例如,adobe audition cs6,vinylstudio等,当语音信息中的分贝值小于预设分贝值时,将分贝值小于预设分贝值的位置作为语音信息的第一分段点;终端通过预设的分贝检测软件检测语音信息的分贝值,例如,sound meter 2.0,digital sound meter等,预设的分贝值为预先设定的,当语音信息中出现用户说话停顿时该处的分贝值较低,鉴于环境中存在噪音,可将预设的分贝值设定为鉴于高于环境噪音的分贝值且低于正常说话时的声音即可,所述音色标记处理可以通过音色处理软件进行标注处理,对属于会议主讲人的音色进行标注;[0069]s24、对检测结果与标记结果进行筛选处理,得到处理后的语音信息;[0070]s25、基于语音文字转换技术对处理后的语音信息进行转换处理,构建讲座文本模型。[0071]具体地,人为的对检测出来的会议主讲人语音信息进行筛选,选取属于主讲人说话的语音信息,并对语音信息通过语音转文字技术转换为对应的文本,并对文本进行排序处理,使其符合主讲人语音信息中讲话的逻辑顺序。[0072]s3、对讲座文本模型进行内容检测并计算评分,输出讲座文本模型分数。[0073]s31、基于新颖性检测系统,对讲座文本模型进行新颖性检测并计算其得分,输出新颖性得分值;[0074]s311、基于摘要抽取模型对讲座文本模型进行摘要抽取,得到讲座文本模型摘要;[0075]具体地,参照图3,通过一个摘要抽取模型对讲座内容进行摘要抽取,该模型包含三层,分别为词嵌入层,编码层,解码层;[0076]进一步,使用bert预训练模型将讲座文本转化为对应的向量,将生成的向量送入transformer中,生成的向量送入编码层(encoders),一个编码层由若干个encoder组成,每个encoder有self-attention自注意力层和全连接层组成,encoder中self-attention自注意力层和全连接层的作用是使特征集中,在将所有词向量全部送入编码层后,将生成的向量送入解码层(decoders),同样一个解码层由若干个decoder组成,每个decoder中包含有self-attention自注意力层,encoder-decoder attention层和全连接层,其中self-attention作用是判断当前生成的字与已生成的字句之间的关系,encoder-decoder attention是判断当前生成的字句与原始文档的特征向量之间的关系,整体decoder是提取信息,加工剪辑,最终生成目标摘要的重要方法,将通过decoder生成的向量,通过一层software层;输出最终的摘要结果;[0077]其中词嵌入层使用bert预训练模型进行词嵌入构造以方便模型理解文章前后文意义,同时也将符号语言转化为计算机能够理解的向量语言。将构造完成的向量,通过编码层将特征集中,同时添加自编码注意力机制方便进行更深层次的提取特征,将提取完成之后的向量送入解码层进行解码操作,最后输出该篇文章的摘要;[0078]s312、构建训练文本模型,所述训练文本模型为与讲座文本模型方向一致的论文;[0079]经过上述过程后,由讲座文本o生成了讲座摘要os用以进行后续新颖性的判断,具体的,首先根据讲座开始前所拿到的讲座演讲方向t,利用互联网公开资源收集到近五年内的,方向相近的公开论文,通过s311所述步骤对训练文本模型进行抽取出其摘要;[0080]s313、通过语言表示模型对讲座文本模型摘要和训练文本模型摘要进行转换处理并计算讲座文本模型摘要词向量和训练文本模型摘要词向量的余弦相似值并根据计算结果进行判断;[0081]具体地,参照图4,生成摘要集合《s》后,对于每一条摘要si,都将si与讲座摘要os进行相似度比较判断,比较过程具体为:将第i个摘要si和讲座摘要os分别通过bert进行词向量转化,并将生成的词向量分别拼接成句子向量,计算两个句子向量的余弦相似性值,输出两个句子向量的余弦相似性结果,所述余弦相似值的计算公式如下所示:[0082][0083]上式中,ai表示第i场讲座文本模型摘要词向量,bi表示第i个训练文本模型摘要词向量,其中若假设讲座文本模型摘要词向量为[1,1,1,1,0,0,1,1,0,1,1,1,1,1,2,1,1,1,1,1],训练文本模型摘要词向量为[1,1,2,1,1,1,1,1,1,1,1,1,1,1,1,0,1,0,1,1],其余弦相似度值为0.8295150620062532;[0084]经过上述过程,就完成了句子相似度的判断;[0085]完成相似度比较后,会得到一个相似度得分pi,将上文中所得到的所有公开论文摘要集合《s》,都与讲座摘要os进行相似度比较,得到相似度得分集合《p》,设定一个阈值t,则大于该阈值的所有相似度得分的文章,被认为是与该篇讲座文章存在相关性的,将上述文章按照发表时间进行排序,发表时间越晚即距离现在时间越近,则分数越高,反之越低;[0086]所述新颖性的计算公式如下所示:[0087][0088]上式中,t1表示新颖性得分值,datetime表示讲座的举办时间,n表示训练文本模型中论文的数量。[0089]s32、基于逻辑性检测系统,对讲座文本模型进行逻辑性检测并计算其得分,输出逻辑性得分值;[0090]具体地,参照图5和图6,利用逻辑判断检测系统对文章逻辑结构进行检测,判断该文章逻辑结构性是否充足,这里使用启发式学习-生成模型进行逻辑结构判断;所述生成模型的网络结构为多层decoder从讲座文本中,按照句子进行划分,将句子集合中的每一个句子,使用生成模型输出预测结果,在使用生成模型生成语句时,还需使用整体文本作为一个向量送入模型,来控制所生成的语句的范围,生成模型是一类使用的特殊的神经网络,其通过学习大量文章内容,可以预测出上一句后的下一句内容,由于训练这个生成模型时,使用的是学术会议的文献,其逻辑推理性很强,因此使用生成模型进行预测时,所得到的句子的逻辑性也是很强的,将生成模型产生出来的句子和它的概率进行判断统计,首先将原与新进行句意比较,判断其句意是否相符,再将原与预测出来的进行相似度比较,记录其相似度得分t并存储到相似度集合中,随后设定一个阈值,若相似度超过该阈值,则将作为新的送入生成模型产生,若相似度不超过该阈值,则使用原有的送入生成模型,将句子全部送入后,就得到了一个相似度集合,其最终的结构严谨度由以下表达式构成:[0091]t2=avg[0092]上式中,t2表示逻辑性得分值,avg表示平均相似度集合;[0093]进一步的所述生成模型的训练过程如下所示:[0094]上述生成模型的训练结构为变种的transformer模型,取其decoder解码器进行预测,预训练时,采用对词语进行判断,即用前面的词语,进行预测后面的词语,进一步的,输入数据如下所示:[0095]h0=uwe+wp[0096]上式中,h0表示输入block(块)的数据,we表示词嵌入参数,wp表示位置参数,u表示词编码;[0097]整体为词编码u乘以词嵌入参数we再加上位置参数wp得到一组初始词向量h0,接着对输入h0进行块计算,其公式如下所示:[0098][0099]上式中,hi表示当前输入的句子,transformer、decoder和block均表示一个值,hi-1表示上一次输入的句子,n表示总共的句子数;[0100]公式中的transformer-decoder-block为组成decoder部分的一个个小块block,经过不断的解码,最终得到一组输出向量,再通过softmax进行全连接,从而得到相对应的输出结果;[0101]s33、基于综合表达检测系统,对讲座文本模型进行表达检测并计算其得分,输出表达得分值;[0102]具体地,参照图7,表达方式和表现手法判断主要是依靠句子之间的衔接进行判断,是通过一个分类模型(ernie)进行判断规则并显示出最终结果,所述判断规则实质上是按照一定的规则进行判断,本质上就是通过一个模型,识别出文章的表达方式和表现手法以及相关的信息,并通过一定的方式转化为对应的评分,即通过分类模型预设的判断规则对文本的衔接性进行判断,判断结果是一个分数,这个分数侧面体现他的表现手法,通过上述模型对结果进行显示演化进而能够判断表达方式,其中表达方式与表现手法此处为一个二分类问题:首先使用带有表达方式和表现手法以及标签的数据集进行训练,得到一个可以判断输入语句是否为表达方式和表现手法的模型,随后将上述表达方式和表现手法通过数学手段进行归一化,得到一个分数,进而得到表达分数得分值,ernie模型是一个类transformer的神经网络模型,具有多重编解码器encoder-decoder进行操作,通过训练可以使其具有识别抒情、拟人和写景等表达方式和表现手法,并输出该段所用到的表现手法和表达方式程度,由于表达方式和表现手法是以文章和段落为主要对象,因此输入模型的为段落,由一段段落输入,输出对应的表达方式和表现手法的使用情况,同时在全篇文章完成后还会对整体文章进行表达方式和表现手法的判断得分,依次遍历所有段落,可以得到最终的表达得分值,其计算公式如下所示:[0103]t3=arg(erine(pi*α)+erine(p))[0104]上式中,t3表示表达得分值,erine表示分类模型,pi表示讲座文本模型的第i个语句段落,α表示第i个语句段落的权重,p表示讲座文本模型的全部文本内容。[0105]s34、整合新颖性得分值、逻辑性得分值和表达得分值,得到讲座文本模型分数。[0106]具体地,上述评价系统输出的分数与其对应的权重相乘,就可以得到该次讲座主讲人演讲得分,从而起到对主讲人进行评价的效果,所述权重由现场不同领域设定,根据会议不同侧重点设置不同权重,其具体地计算公式如下所示:[0107]s=t1*α+t2*β+t3*η[0108]上式中,α表示新颖性检测系统的权重,β表示逻辑性检测系统的权重,η表示表达检测系统的权重,s表示最终的讲座文本模型分数。[0109]参照图2,一种基于内容的讲座客观评价系统,包括:[0110]采集模块,用于采集讲座主讲人的语音信息;[0111]构建模块,用于对语音信息进行数据预处理,构建讲座文本模型;[0112]检测模块,用于对讲座文本模型进行内容检测并计算评分,输出讲座文本模型分数。[0113]上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。[0114]以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本技术权利要求所限定的范围内。









图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!




内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!




免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

相关内容 查看全部