计算;推算;计数设备的制造及其应用技术cross-modality synthesis of 3d medical images using weakly-supervised joint convolutional sparse coding[j].arxiv preprint arxiv:1705.02596,2017.[0011][6].schlemper j,caballero j,hajnal j v,et al.a deep cascade of convolutional neural networks for dynamic mr image reconstruction[j].ieee transactions on medical imaging,2018,37(2):491-503.[0012][7].x.du and y.he,“gradient-guided convolutional neural network for mri image super-resolution,”applied sciences,vol.9,no.22,p.4874,2019.[0013][8].b.yaman,s.a.h.hosseini,and m.“zero-shot self-supervised learning for mri reconstruction,”arxiv preprint arxiv:2102.07737,2021.[0014][9].d.ulyanov,a.vedaldi,and v.lempitsky,“deep image prior,”in proceedings of the ieee conference on computer vision and pattern recognition,2018,pp.9446–9454.[0015][10].d.zhao,f.zhao,and y.gan,“reference-driven compresse dsensing mr image reconstruction using deep convolutional neural networks without pre-training,”sensors,vol.20,no.1,p.308,2020.[0016][11].f.hashimoto,k.ote,t.oida,a.teramoto,and y.ouchi,“compressed-sensing magnetic resonance image reconstruction using an iterative convolutional neural network approach,”applied sciences,vol.10,no.6,p.1902,2020.技术实现要素:[0017]本发明的目的在于克服现有方法的不足,提供一种基于参考图像和数据修正的欠采样磁共振图像重建方法,方法收敛速度快,重建精度高。[0018]为了实现上述发明目的,采用的技术方案如下:[0019]一种基于参考图像和数据修正的欠采样磁共振图像重建方法,包括如下步骤:[0020]获取全采样t1加权图像作为参考图像iref;获取全采样t2加权图像it2,并转换为欠采样k空间数据y;[0021]初始化图像序列is和初始化互信息值序列mis;[0022]使用基于残差模块的卷积神经网络,建立基于参考图像iref和欠采样k空间数据y的欠采样磁共振图像重建模型;[0023]训练欠采样磁共振图像重建模型;[0024]记录重建过程中的重建图像及其与参考图像的互信息值;[0025]基于所述互信息值选择最佳的重建图像;[0026]对所述最佳的重建图像进行迭代k-空间数据修正,获得最终的重建图像。[0027]优选的,获取全采样t2加权图像it2,并转换为欠采样k空间数据y,具体包括:[0028]将加权图像it2傅里叶变换到k空间,再将k空间数据与欠采样掩码m点乘,得到对应的欠采样k空间数据y,如下:[0029]y=m⊙fit2[0030]其中,f表示傅里叶变换。[0031]优选的,所述欠采样掩码m为笛卡尔欠采样掩码,采样率为10%。[0032]优选的,使用基于残差模块的卷积神经网络,建立基于参考图像iref和欠采样k空间数据y的欠采样磁共振图像重建模型,具体包括:[0033]卷积神经网由多个残差模型堆叠而成,输入为参考图像iref,输出为重建的图像it;从输入端到输出端的映射函数为f(θ|iref),该映射函数具有参数θ={w1,w2,…wl;b1,b2,…bl},其中wl表示第l层的权值矩阵,bl表示第l层的偏置,l是网络模型的总层数;给定欠采样k空间数据y和它对应的参考图像iref作为网络输入,将重建的图像作为网络输出,损失函数定义为:[0034]i′=f(θ|iref)[0035]it=fdc(i′)=|f-1((1-m)⊙fi′+y)|[0036]e(θ)=‖y-m⊙ffdc(i′)‖2[0037]其中,f表示傅里叶变换,fi′表示对图像i′进行傅里叶变换,f-1表示傅里叶逆变换,1表示值全为的与m同大小的矩阵,⊙表示矩阵之间的点乘,fdc表示数据修正操作,||·||2表示矩阵范数的平方。[0038]优选的,训练欠采样磁共振图像重建模型,具体包括:[0039]通过最小化损失函数e(θ)来估计映射函数f(θ|iref)中参数θ的最优取值损失函数的最小化由自适应梯度下降算法和标准的反向传播算法实现。[0040]优选的,记录重建过程中的重建图像及其与参考图像的互信息值,具体包括:[0041]每间隔n次训练,存储第i次重建图像ii到重建图像序列is=is∪ii中,计算ii与参考图像iref的互信息值并存储入mis=mis∪mii,其中[0042][0043]其中p(x)为图ii中灰度级x的概率密度,p(y)为图iref中灰度级y的概率密度,p(x,y)指的是图像ii的灰度级x与图像iref灰度级为y的联合概率密度。[0044]优选的,基于所述互信息值选择最佳的重建图像,具体包括:[0045]由is选择最优重建磁共振图像i0∈is,i为互信息值集合中的最大值所对应的下标,如下:[0046][0047]优选的,对所述最佳的重建图像进行迭代k-空间数据修正,获得最终的重建图像,具体包括:[0048]对i0进行数据修正k次,得到最后的重建图像ik,[0049]ik=fdc(ik-1) k=1,2,3…k。[0050]由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:[0051]本发明方法利用无监督机器学习实现了欠采样图像的重建,方法引入参考图像作为输入,设计卷积神经网络模型提取参考图像特征引导整个重建过程,在重建过程中方法利用k空间数据修正模块加速重建的收敛速度;方法根据网络模型输出和参考图像的互信息值,选择最佳的输出重建图像,以提高重建图像的准确度。附图说明[0052]图1为本实施例的基于参考图像和数据修正的欠采样磁共振图像重建方法的流程图;[0053]图2为本实施例的流程框图;[0054]图3为笛卡尔、高斯和泊松欠采样掩码,采样率10%示意图;其中,(a)表示笛卡尔欠采样掩码;(b)表示高斯欠采样掩码;(c)表示泊松欠采样掩码;[0055]图4为残差模块示意图;[0056]图5为数据修正模块示意图;[0057]图6为训练过程中重建图像与参考图像的互信息值变化曲线,及重建图像的与真实图像的峰值信噪比变化曲线;[0058]图7为在采样率为10%的笛卡尔掩码下的欠采样磁共振数据,在有监督方法的与本方法的mri脑图超分辨率重建结果;其中,(a)表示真实的全采样t2加权图像;(b)表示参考的全采样t1加权图像;(c)表示欠采样填零重建t2图像;(e)表示有监督卷积神经网络重建t2图像;(g)表示本方法重建的t2图像;(d)表示(c)图像时的重建误差图;(f)表示(e)重建误差图;(h)是(g)表示建误差图。具体实施方式[0059]下面结合附图对本发明做进一步的说明。[0060]本发明实例是一个利用卷积神经网络的多对比度mri脑图的多分辨率重建具体过程,是对本发明所提出方法的详细描述。[0061]参见图1和图2所示,本实施例一种基于参考图像和数据修正的欠采样磁共振图像重建方法,包括如下步骤:[0062]s101,引入不同对比度的全采样磁共振图像作为参考图像。[0063]本实例采用的数据集是来源于namic的mri数据库(http://hdl.handle.net/1926/1687)中的磁共振图像,使用图像像素大小为1×1毫米、切片厚度1毫米,数据大小为256×256×176。[0064]其中,全采样的高分辨率t1加权图像iref。[0065]欠采样过程如下:[0066]对全采样的高分辨率t2加权图像it2,首先傅里叶变换到k空间,k空间数据与欠采样掩码点乘,得到对应的欠采样t2加权k空间数据为y。[0067]参见图3所示,欠采样掩码包括笛卡尔欠采样掩码、高斯欠采样掩码和泊松欠采样掩码。本实施例采用笛卡尔欠采样掩码m,采样率为10%。其中,m中值为1的列为采样列,m中值为0的列不采样。[0068]y=m⊙fit2[0069]s102,初始化图像序列和初始化互信息值序列。[0070]具体的,初始化图像序列is={},初始化互信息值序列mis={}。[0071]s103,使用基于残差模块的卷积神经网络,建立基于参考图像和欠采样k空间数据y的欠采样磁共振图像重建模型。[0072]具体的,重建模型由首尾各一个卷积层,中间8个残差模块组成。第一个卷积层有32个3×3大小的卷积核;每个残差模块有两个卷积层,每层第一个卷积层有32个3×3大小的卷积核,残差模块的输入与第二层卷积输出之间跨接相加的结果为残差模块的输出;最后一层为1×32个3×3大小的卷积核。[0073]残差模块示意图参见图4所示。[0074]模型的输出与对应的欠采样t2加权数据y的均方误差作为模型的损失函数e(θ):[0075]i′=f(θ|iref)[0076]it=fdc(i′)=|f-1((1-m)⊙fi′+y)|[0077]e(θ)=‖y-m⊙ffdc(i′)‖2[0078]其中,f表示傅里叶变换,fi′表示对图像i′进行傅里叶变换,f-1表示傅里叶逆变换,1表示值全为的与m同大小的矩阵,⊙表示矩阵之间的点乘,fdc表示数据修正操作,||·||2表示矩阵范数的平方。[0079]具体的,参见图5所示,为本实施例的数据修正模块示意图。[0080]s104,训练欠采样磁共振图像重建模型。[0081]模型的训练就是通过最小化损失函数e(θ)来估计映射函数f(θ|iref)中参数θ的最优取值损失函数的最小化由自适应梯度下降算法和标准的反向传播算法实现。[0082]s105,记录重建过程中的重建图像及其与参考图像的互信息值。[0083]设定整个训练过程为迭代5000次,每间隔100次迭代存储重建的图像及其与参考图像的互信息值。存储第i×100次重建图像ii到重建图像序列is=is∪ii中,计算ii与参考图像iref的互信息值并存储入mis=mis∪mii。[0084][0085]其中p(x)为图ii中灰度级x的概率密度,p(y)为图iref中灰度级y的概率密度,p(x,y)指的是图像ii的灰度级x与图像iref灰度级为y的联合概率密度。[0086]参见图6所示,为本实施例的训练过程中重建图像与参考图像的互信息值,以及重建图像与真实图像峰值信噪比随训练过程值变化的曲线图。从图5可以看出,在训练前期,随着训练次数的增长,重建图像与参考图像的互信息值越来越大,重建图像的质量也相应提高,但在训练后期,重建图像的质量开始下降,说明训练出现了过拟合,而此时重建图像与参考图像的互信息值也随之下降。这说明互信息值可以作为判断重建图像是否达到最佳的判断依据。[0087]s106,选择最佳的重建图像作为网络输出。[0088]由is选择最优重建磁共振图像i0∈is,i为互信息值集合中的最大值所对应的下标,[0089][0090]s107,对所述最佳的重建图像进行迭代k-空间数据修正,获得最终的重建图像。[0091]具体的,对i0进行数据修正100次,得到最后的重建图像i100,如下:[0092]ik=fdc(ik-1) k=1,2,3…100。[0093]具体的,数据修正模块示意图参见图5所示。[0094]进一步的,参见图7所示,为在采样率为10%的笛卡尔掩码下的欠采样磁共振数据,在有监督方法的与本方法的mri脑图超分辨率重建结果;其中,(a)表示真实的全采样t2加权图像;(b)表示参考的全采样t1加权图像;(c)表示欠采样填零重建t2图像;(e)表示有监督卷积神经网络重建t2图像;(g)表示本方法重建的t2图像;(d)表示(c)图像时的重建误差图;(f)表示(e)重建误差图;(h)是(g)表示建误差图。[0095]从图7可以看出,本发明方法重建误差小,重建精度高。[0096]上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。
图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,发布内容不收取任何费用也不接任何广告!
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本文部分文字与图片资源来自于网络,部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们,情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
基于参考图像和数据修正的欠采样磁共振图像重建方法
作者:admin
2022-09-02 19:32:39
451
关键词:
计算;推算;计数设备的制造及其应用技术
专利技术