首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
【摘要】目的:研究以深度残差网络(ResNet)为基础架构建立深度学习模型,对X线胸片(CXR )做出“有发现”与“无发现”鉴别诊断的可行性。方法:回顾性收集2017年1月1日至2018年7月1日的连续CXR图像及诊断报告,经过数据清洗后分为“无发现”组(无任何异常发现,诊断印象为“两肺心膈未见异常”,共9765例)与“有发现”组(诊断印象中提及了一种以上影像所见,共9956例)。使用ResNet152(152 layers)作为二分类模型的基础架构,结合Grad-CAM技术生成模型激活热图,训练二分类模型。数据随机分为训练集(70%)、调优集(20%)和测试集(10%)。以测试集的预测结果检测CXR二分类模型的效能。结果:在测试集中(“有发现”者1018例,“无发现”者995例),CXR二分类模型鉴别“有发现”与“无发现”的精确度分别为0.885和0.894,召回率分别为0.898和0.880,F1-分数分别为0.891和0.887,ROC曲线下面积均为0.96。 结论:使用CXR二分类模型可对X线胸片做出“无发现”与“有发现”的预测。  相似文献   

2.
目的 探究基于卷积神经网络的级联深度学习模型在胸部X线平片图像上对肺野分割以及肺结核筛查的应用价值。方法 搜集2018年10月至2020年2月行胸部X线摄影检查的健康对照组1300名和肺结核患者825例,随机选择140名健康对照组和60例患者组成肺野分割数据集,评价基于U-net++网络的深度学习模型对胸片肺野的分割效果。划分数据集中的80%(1700例)作为训练集,20%(425例)作为测试集,使用四种分类网络(VGG 16、Inception V3、Resnet 101、Densenet 121)对分割结果内是否存在结核病灶进行判断,并使用网络公开的深圳市第三人民医院肺结核数据集(CHX)对模型的检出效能进行评价。结果 级联模型中U-net++分割网络对胸片肺野分割的Dice相似指数与交并比(IOU)分别达到99.42%和98.84%;VGG 16、Inception V3、Resnet 101及Densenet 121四种分类网络对肺结核的筛查率最高分别为95.77%、96.00%、94.35%和95.06%;四种分类网络在CHX数据集上的最高检出率分别为84.44%、83.99...  相似文献   

3.
【摘要】目的:探讨基于深度学习算法建立的上腹部DCE-MRI图像自动分类模型的立场应用价值。方法:回顾性搜集417例患者上腹部DCE-MRI扫描不同期相的共1330组图像数据。由两位专家将所有图像按平扫、动脉早期、动脉晚期和门静脉-延迟期进行分类。将1330组的数据随机分为训练集(train set,n=1118),调优集(validation set,n=108)和测试集(test set,n=104)。训练3D-ResNet模型对图像的扫描期相进行分类,应用混淆矩阵(confusion matrix)评价模型的分类预测效能。结果:在训练集、调优集及测试集中总体预测符合率分别为99.9%(1117/1118)、99.1%(107/108)和99.0%(103/104)。训练集及调优集中动脉晚期的预测符合率分别为99.5%(193/194)和90.9%(10/11),平扫、动脉早期及门静脉-延迟期的预测符合率均为100%。测试集中各期相图像分类符合率:平扫97.5%(39/40)、动脉早期100%(14/14)、动脉晚期100%(8/8)、门静脉-延迟期100%(42/42)。结论:基于深度学习方法训练的分类模型对DCE-MRI各期相图像的分类预测效能良好,有利于工作流程的优化及后续对接AI诊断模型。  相似文献   

4.
【摘要】目的:构建基于深度学习的胸部X线肺结核检测模型并通过多中心研究验证其效能及临床价值。方法:回顾性搜集2600例来自3个中心的胸部X线图像并随机分为训练集、验证集和测试集,构建基于RetinaNet架构的肺结核深度学习检测模型,并在ChinaSet和MontgomerySet胸部X线公开数据集以及来自深圳三院的外部临床测试集上对深度学习模型的鲁棒性进行外部测试。采用受试者工作特征曲线(receiver operator characteristic curve,ROC)评估模型效能。同时通过临床检测评估深度学习模型的重复性和再现性。结果:深度学习模型在内部测试集的ROC曲线下面积(AUC)为0.967,在ChinaSet、MontgomerySet和深圳三院外部测试集的AUC分别为0.95、0.93和0.976,具有较高的准确性和良好的鲁棒性。临床一致性评估证实了模型的重复性和再现性。结论:深度学习模型具备良好的效能,可以作为胸部X线影像结核病检测工具用于临床决策支持。  相似文献   

5.
【摘要】目的:利用深度学习方法训练髌骨轴位X线片图像质量控制的自动分类模型。方法:回顾性收集髌骨轴位X线片,由两位专家将髌骨轴位X线片分为不同数据组以训练模型,分别为:术后/非术后共175例(术后96例,非术后79例),侧别共735例(左侧419例,右侧316例),图像质量共453例(图像质量不合格246例,图像质量合格207例)。上述每组数据均按8:1:1的比例随机分为训练集、调优集和测试集,即:术后/非术后为136例、21例、18例,侧别586例、75例、74例,图像质量为362例、46例、45例。训练HRNet模型对上述三组图像进行自动分类,应用混淆矩阵评价模型分类预测效能,以符合率为评价指标。结果:测试集中,三组图像分类模型的预测符合率依次为:术后/非术后94.4%(17/18)、侧别98.6%(73/74)、图像质量91.1%(41/45)。结论:基于深度学习训练的分类模型对髌骨轴位X线片进行图像质量控制效能良好,有利于工作流程的优化及后续对接AI诊断模型。  相似文献   

6.
目的基于U-Net网络深度学习的方法, 实现在放疗临床中低能锥形束CT(CBCT)图像转换成高能CBCT图像, 以期提供双能CBCT成像图像基础且降低辐射剂量。方法利用放疗机载CBCT设备采集CIRS电子密度模体和CIRS头部体模在80和140 kV能量下的CBCT图像数据, 数据集按10∶1分为训练集和测试集。利用U-Net网络从低能量(80 kV)CBCT图像预测高能量(140 kV)下CBCT图像。采用平均绝对误差(MAE)、结构相似度指数(SSIM)、信噪比(SNR)和峰值信号噪声比(PSNR)4种度量指标, 定量评价预测高能CBCT图像。结果预测高能图像与真实高能图像之间总体结构差异较小(SSIM:0.993 ±0.003)。预测高能图像噪声较低(SNR:15.33±4.06), 但组织间分辨力有损失。预测高能图像比真实高能图像平均CT值偏低, 在低密度组织中差异较小(<10 HU, P > 0.05), 而在高密度组织中差异大(< 21 HU, t = -7.92, P < 0.05)。结论利用深度学习方法可以从低能CBCT图像获得结构相似度高的高能...  相似文献   

7.
【摘要】目的:探索基于深度学习对乳腺X线密度(MD)进行分类的可行性。方法:回顾性分析2018年9月-12月本院行双侧乳腺X线摄影检查的305例连续资料,共1220个图像数据。由两位影像诊断医师挑选其中合格的数据分别进行乳腺密度的分类训练。由两位医师根据第5版乳腺影像报告和数据系统(BI-RADS)中X线MD分型(a、b、c、d)标准对1220个图像进行分类。将上述随机分训练集(train set,n=966)、调优集(validation set,n=128)和测试集(test set,n=126),采用AutoVGG网络训练分类预测模型,以测试集的混淆矩阵评价模型的效能。在模型预测的四分类基础上,将MD进行二分类,即:非致密组(a型和b型)和致密组(c型和d型),评价模型二分类预测的效能。结果:测试集的126个数据的预测符合率为0.83,a、b、c、d各型预测符合率分别为0.88、0.78、0.80和0.76。将MD分为致密组和非致密组时,非致密组精确度(precision)为0.90,召回率(recall)为0.74,F1值为0.81;致密组精确度为0.86,召回率为0.84,F1值为0.85。结论:采用深度学习方法进行乳腺X线摄影MD二分类是可行的,有望在临床工作中应用。  相似文献   

8.
【摘要】目的:探讨基于VGG19的深度迁移学习模型在儿童胸部X线片(胸片)早期诊断肺炎支原体肺炎(MPP)中的价值。方法:搜集常州市第二人民医院儿科就诊的患儿3763例,其临床及影像资料齐全。将患儿胸片分成细菌性肺炎组、MPP组和病毒性肺炎组,并按照9:1随机分为训练集和测试集。另外选择150例患儿胸片作为验证集(细菌性肺炎、MPP和病毒性肺炎各50例)。模型性能评价指标包括在训练集和测试集中的准确率(Ac)及在验证集中的精确度(Pr)、召回率(Rc)、F1评分(F1)和ROC曲线下面积(AUC)。结果:VGG19在训练集和测试集中的最高Ac分别为0.99和0.95。细菌性肺炎组的Pr、Rc、F1、AUC分别为0.87、0.82、0.85、0.92,MPP组分别为0.85、0.74、0.78、0.90,病毒性肺炎组分别为0.76、0.88、0.81、0.93。VGG19对三组图像分类诊断的总体AUC为0.92。结论:基于VGG19的深度迁移学习模型是儿童胸部X线片诊断MPP的可靠方法,能够帮助临床早期诊断MPP。  相似文献   

9.
目的 探讨以深度学习模型为基础的方法通过实现对临床常规T2WI图像自动估算患者身体质量指数(BMI)模型的可行性。方法 选取58例临床常规腹部MRI检查的T2WI图像集。对于每个多层的T2WI图像集逐层生成2D图像数据,最终生成1378个单层2D T2WI图像数据集。BMI估算模型由特征提取和数值估算两个功能模块组成,其中特征提取功能部分,使用深度残差网络(residual deep neural network, ResNet)为基础特征提取模块,结合线性全连接层实现BMI数值估算功能。数据随机分为训练集(57.00%)、验证集(14.00%)和测试集(29.00%),其中分组原则要满足测试集训练集和验证集的图像数据来源于不同的患者。以估算准确个数占比和均方根对数误差(RMSLE)为BMI估算模型性能的评价指标。结果 测试集中在误差冗余值(error redundancy, ER)为2.5时,BMI模型的估算准确个数占比为81.25%,均方根对数误差(RMSLE)为0.48%。结论 深度学习模型对...  相似文献   

10.
【摘要】目的:探索基于CT图像的深度学习方法自动定位盆腔淋巴结区域的可行性。方法:回顾性连续搜集在本院就诊的符合研究要求的盆腔恶性肿瘤患者的腹盆部CT图像,共将178个腹盆部薄层门静脉期扫描序列的图像数据纳入研究,并将其按疾病类型分为两个数据集:数据集1包括2018年8月-2021年4月共131例前列腺癌患者的131个序列的图像,用于模型训练;数据集2包括2021年1月-2021年6月本院47例盆腔肿瘤(卵巢癌、宫颈癌和直肠癌)患者的47个序列的图像,用于外部验证。在数据集1中每个序列的CT图像上,由两位影像科医师标注盆腔淋巴结的区域定位(共划分为13个分区,包括主动脉旁、双侧髂总动静脉、双侧髂内外动静脉、双侧闭孔、双侧腹股沟、骶前和直肠旁区域)。将131个序列的图像数据随机分为训练集(train set,n=99)、调优集(validation set,n=17)和测试集(test set,n=15)。通过训练U-net 3D深度学习网络,建立淋巴结自动定位分区模型,对模型在数据集1的测试集中的定位能力进行定量评价,评价指标包括交并比(IOU)、体积相似度(VS)和关键点正确估计比例(PCK)。对模型在数据集2中自动定位淋巴结分区的能力进行定性评价,评价指标包括模型定位的淋巴结区域的覆盖程度(0~2分)、超出程度(0~1分)及超出范围(0~2分)分级,总分值为0~5分(不满意~满意)。结果:在数据集1的测试集中,盆腔淋巴结自动定位分区模型预测各组淋巴结的交并比(IOU)为0.28~0.77(P<0.001),体积相似度(VS)为0.62~0.99(P<0.001),关键点正确估计比例(PCK)-10mm为53.85%~100%(P=0.446)。数据集2的评价结果显示,模型预测各区域盆腔淋巴结主观评价各项指标得分之和的中位数:双侧髂总动静脉、双侧腹股沟、双侧髂内动静脉、双侧闭孔、主动脉、骶前和直肠旁为5分,左侧髂外动静脉为4分,右侧髂外动静脉为3分。以总评分≥4分为达到临床满意的标准,模型对84.59%淋巴结的自动定位分区结果准确,其中以双侧腹股沟区域的满意率最高,达100%。在13个淋巴结分区中,11个分区的满意率超过80%,其中4个分区在90%以上;以双侧髂外动静脉淋巴结区域的定位满意率较差(左侧为60%,右侧为51%)。结论:通过深度学习方法在CT图像上自动定位盆腔淋巴结区域是可行的。  相似文献   

11.
目的 探索使用深度学习方法在磁共振胆胰管成像(MRCP)图像上分割肝外胆管和检出结石的可行性。资料与方法回顾性收集2019年7月5日—2020年6月30日于北京大学第一医院就诊的225例患者共230人次3D MRCP检查图像数据纳入胆管分割研究;并补充2020年7月1日—2021年2月27日通过经内镜逆行胆胰管成像或临床综合诊断证实的胆总管结石患者数据,最终合计73例存在胆总管结石患者3D MRCP检查图像纳入胆管结石分割研究。由2位影像科专家标注数据,得到267个肝外胆管和98个胆总管结石区域的标签。使用Unet3D网络分两步(coarse-fine)训练胆总管分割模型,将267个数据随机分为训练集213个、调优集27个和测试集27个。以胆总管标签为掩膜(mask),进一步训练胆总管结石的分割模型,将98个数据随机分为训练集80个、调优集9个和测试集9个。使用客观评价指标为测试集的Dice系数,并输出标注区域与模型预测区域的径线、体积等进行比较。主观评价指标包括肝外胆管分割评分、肝外胆管轴位T2WI匹配评分和结石分割评分。结果 肝外胆管分割模型的测试集共27个数据,第一步(coars...  相似文献   

12.
【摘要】目的:基于深度学习方法训练模型,研究其用于腹部CT图像上分割胆囊并自动测量的可行性。方法:从本院PACS系统搜集2016年1月12日至2021年5月28日行腹部CT检查的患者,从中选取1154位患者的1181次CT检查图像,共得到2559个图像序列用于训练模型。由2位影像科医师标注胆囊,将全部数据按8:1:1的比例随机分为训练集(n=2043)、调优集(n=245)和测试集(n=271),训练3D U-net模型分割胆囊并自动测量。另搜集2022年9月10-19日的腹部CT扫描图像,随机选取共141位患者的141次检查的270个图像序列作为外部验证数据集。以外部验证集的预测结果评价模型的效能。使用Dice相似系数(DSC)、体积相似度(VS)和Hausdorff距离(HD)定量评价模型分割胆囊区域的效能。使用Bland-Altman分析评价模型自动测量的胆囊体积、径线、平均CT值与医师标注测量值的一致性。结果:外部验证集的DSC、VS、HD分别为0.980(0.970,0.980)、0.990(0.990,1.000)、1.69 (1.27,2.45)mm,各数据集之间DSC、VS和HD的差异均有统计学意义(P均<0.001)。外部验证集中模型预测和医师标注测量的胆囊体积、CT值、三维径线的95%一致性界限(LoA)的可信区间分别为(-2.07,3.36)、(-1.55,1.15)、(-1.28,1.47)、(-3.34,4.07)和(-1.11,2.15),分别有2.6%、3.7%、3.7%、1.1%和3.7%的点落在95%LoA以外。结论:基于深度学习模型可在腹部CT图像上自动分割胆囊区域,是将来进一步胆囊病变智能诊断的基础。  相似文献   

13.
目的 探讨快速区域卷积神经网络(Faster RCNN)在胸部数字X线摄影(DR)图像异物位置和类型自动检测中的应用价值.方法 对960张胸部DR图像进行Faster RCNN训练、验证及测试,按3∶1∶1的比例随机划分数据集为训练集(576张)、验证集(192张)和测试集(192张).使用开源分割工具ImageJ对左...  相似文献   

14.
目的 探索基于深度学习对MRI图像上乳腺强化病灶形态分类的可行性。资料与方法 连续性收集并回顾分析2013年1月—2016年10月北京大学第一医院行双侧乳腺MR动态增强的290例患者的资料,使用既往研发的3D分割模型分割出乳腺中异常强化区域,由2位影像诊断医师根据第5版乳腺影像报告和数据系统病变分型(肿块、非肿块样强化)对375个图像进行分类。将上述数据按8∶1∶1随机分为训练集(n=297)、调优集(n=39)和测试集(n=39),使用Auto VGG网络训练分类预测模型,以测试集的混淆矩阵评价模型的效能。结果 2位影像医师对于乳腺病灶肿块与非肿块划分的初始一致性为0.917(344/375)。测试集39个数据中,26个为肿块,13个为非肿块样强化。肿块及非肿块样强化病例的三维径线(左右、前后、上下)及体积差异均无统计学意义(P均>0.05)。测试集39个数据的预测准确率为0.87,敏感度为0.96,特异度为0.69,精确度为0.86,F1评分为0.91。结论 使用深度学习方法进行乳腺MRI图像上强化病灶形态分类是可行的,有望在临床工作中应用。  相似文献   

15.
【摘要】目的:基于磁共振Dixon图像的不同组合,采用深度学习方法进行颅骨二值重建,通过与CT图像比较评估骨重建效果。方法:回顾性收集2021年6月-8月共21例头颅CT和MR图像。刚性配准后,将CT值大于150和400HU像素点作为颅骨组织。采用U-Net神经网络模型训练,16例作为训练集,5例作为测试集。使用Dixon四种对比图像及其不同组合形成集成模型,进行二值颅骨图像重建。采用戴斯相似性系数(DSC)、准确度、敏感度和特异度评估骨重建效果。结果:在以400HU为阈值重建MR二值骨图像,水相和同相位组合的重建结果DSC值最高(0.760±0.038)。在以150HU为阈值时,水相和反相位组合的重建结果DSC值最高(0.795±0.040)。150HU重建结果比400HU敏感度高(0.880±0.050 vs. 0.855±0.052),特异度下降(0.977±0.004 vs. 0.982±0.004)。结论:利用Dixon图像进行深度学习重建颅骨二值图像,在400HU为阈值时水相和同相位图像结合进行颅骨重建的效果最优,在150HU为阈值时水相和反相位图像结合的效果最优。  相似文献   

16.
【摘要】目的:探索基于深度学习在三维磁共振尿路成像(3D MRU)图像上分割尿路的可行性。方法:回顾性收集2021年1月1日-2021年4月30日本院包含“MRU”检查项目的图像,共219例数据纳入本研究。由2名影像医生手工勾画双侧肾盂-肾盏、输尿管及膀胱区域,将219例数据随机分为训练集(175例)、调优集(22例)和测试集(22例)训练3D U-net分割模型。统计Dice相似性系数(DSC)和霍夫曼距离(HD)用于自动分割的客观评价,由2名影像医生主观评价模型自动分割勾画并应用组内相关系数(ICC)评估主观评分的一致性。结果:MRU分割模型的测试集共22个数据,DSC值均达到0.70及以上,右侧输尿管、左侧输尿管、左侧肾盂-肾盏、右侧肾盂-肾盏及膀胱的分割结果DSC值分别为0.81、0.70、0.85、0.95、0.98,HD值分别为(43.01±41.24)mm、(65.1±66.80)mm、(37.8±52.48)mm、(52.08±69.88)mm、(10.06±20.76)mm。2位影像医生对测试集的主观评分总分为29.00±1.68、28.68±1.63,ICC值为0.95(95%CI:0.89~0.98)。结论:基于深度学习的3D MRU尿路自动分割勾画在临床具备可行性,可为后续MRU的定位、定量及定性诊断提供基础。  相似文献   

17.
【摘要】目的:探讨基于DWI图像利用深度学习方法建立的分割模型对盆腔骨结构的自动分割价值,以及基于自动分割图像建立的影像组学模型对前列腺癌骨转移的诊断效能。方法:回顾性搜集2017年1月-2020年1月因临床怀疑前列腺癌而行盆腔多参数MRI扫描的614例患者的DWI数据,训练3D U-Net模型对盆腔骨质结构进行自动分割。以两位影像科医师手工勾画和标注的8个盆腔骨质结构(下腰椎、骶骨、髂骨、髋臼、耻骨、坐骨、股骨头、股骨颈)为金标准,在不同数据集(训练集、调优集、测试集)中,采用Dice相似系数(DSC)、Jaccard相似系数(JSC)和Hausdorff表面距离(HSD)评估3D U-Net模型自动分割盆腔各骨质结构的效能。另搜集2020年2月-2020年12月在本院经病理证实为前列腺癌的275例患者的影像资料,用于盆腔骨质结构分割模型的外部验证集及建立预测骨转移灶的影像组学模型,采用受试者工作特征曲线(ROC)评估影像组学模型的分类效能。结果:U-Net分割模型在测试集中的DSC、JSC和HSD值分别为0.87±0.03、0.77±0.04和21.75±12.08;在外部验证集中相应参数值分别为0.82±0.06、0.71±0.08和16.27±4.35。基于275例前列腺癌患者的盆腔骨质结构自动分割图像,共提取和筛选出20个影像组学特征参数,所建立的影像组学模型在测试集中的ROC曲线下面积(AUC)为0.965(95%CI:0.899~0.993),敏感度为97.14%(95%CI:85.1%~99.9%),特异度为89.36%(95%CI:76.9%~96.5%)。结论:基于DWI图像利用深度学习方法建立的自动分割模型能准确分割盆腔骨质结构,随后建立的影像组学模型可以有效检出盆腔范围内的骨转移灶,为自动评估前列腺癌患者盆腔骨转移提供了新方法。  相似文献   

18.
目的:探讨深度卷积神经网络模型(CNN)在评估锥形束计算机断层扫描(CBCT)影像中的腭中缝成熟度的应用,验证深度学习算法的有效性。方法:在已有卷积神经网络Xception模型的基础上,对模型进行针对性的结构优化,引入了注意力以及多特征融合机制。使用661例CBCT的腭平面截图,图像经预处理后作为训练集,在对网络模型进行训练后,利用20例典型分期样本进行验证,再分别测试38例困难样本(测试集A)和60例平均难度样本(测试集B)的分期准确率。最后将模型与医生的判断结果进行对比分析。结果:所设计的深度神经网络模型在数据集A和数据集B上的准确率分别为0.868和0.916,医生在数据集A和数据集B的准确率分别为0.628和0.850,结论:在病例出现多期性时,深度神经网络模型能够给出更加准确的结论,因此深度神经网络模型能够给医生提供有价值的参考,辅助医生做出正确的诊断。  相似文献   

19.
【摘要】目的:基于深度学习方法训练辅助诊断模型,探究对头CT平扫(NCHCT)图像中脑梗死病灶自动分割的可行性。方法:搜集自2018年5月1日-2020年8月31日影像诊断报告中诊断印象包含“梗死”关键词的NCHCT连续病例1185例,筛选出最终证实为脑梗死的数据362例。由两位医师结合最终结果手工标注脑梗死区域。将数据按8:1:1的比例随机分为训练集(training set,n=288)、调优集(validate set,n=37)和测试集(test set,n=37 例)。训练2D U-net模型分割脑梗死病灶,分割结果自动输入到结构化报告中。对测试集的预测结果和人工标注的结果进行比较,统计梗死病灶体积、径线的差异,使用Dice相似系数(DSC)、体积相似度(VS)和Hausdorff距离(HD)评价模型的预测效能。使用Bland-Altman评价模型预测的病灶体积、径线和CT值与手工标注的一致性。结果:测试集中平均DSC为0.66 (95% CI:0.60~0.72),平均VS为0.75(95%CI:0.69~0.82),平均HD为39.69mm(95%CI:32.38~47.01)。Bland-Altman图显示模型预测与手工标注对病灶大小和CT值测量的一致性较高,体积、径线和CT值数据点位于95%一致性界限(95% limits of agreement,95% LoA)外的数据为2.8%~11.1%。结论:基于深度学习的辅助诊断模型可用于分割NCHCT中的脑梗死病灶,并自动生成报告,对患者分诊有一定作用。  相似文献   

20.
目的 探讨基于深度学习实现对三翻转角2D SPGR MRI序列定量估算单侧肾动脉狭窄动物模型肾脏R1参数图的可行性。方法 共纳入12只平均体重3.2 kg的健康新西兰大白兔,对每只兔子施行左肾动脉部分结扎手术以建立单侧肾动脉狭窄(RAS)动物模型。RAS术前和术后每隔10 min采集一次2D单层三翻转角SPGR MRI数据,其中术前2次和术后9次,以获得单侧RAS造成肾脏水含量水平改变前后的肾脏R1参数图。最终获得127个2D图像对,每对图像包括一个由相同层面3个翻转角(15°,24°和33°)的SPGR序列图像组成三通道2D图像和一个传统可变翻转角R1估算方法得到相应层面的R1参数图图像。应用基于深度学习的编码器-解码器结构训练R1参数图生成模型。将RAS术后采集的92例数据分为训练集(74对)和调优集(18对),将RAS术前采集的34例数据及1例RAS术后的数据作为测试集(35对)。以测试集的峰值信噪比和结构相似性结果为R1参数图生成模型的评价指标。结果 在测试集中,R1参数图生成模型的峰值信噪比(dB)和结构相似性(%)分别为22.08±2.33和79.49±6.49。结论 基于...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号