首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
沈镇炯  彭昭  孟祥银  汪志    徐榭    裴曦   《中国医学物理学杂志》2021,(8):950-954
目的:基于级联3D U-Net,利用配对患者头颈部数据[CT和磁共振图像(MRI)],取得比仅CT数据更高分割精度的视交叉自动分割结果。方法:该级联3D U-Net由一个原始3D U-Net和改进的3D D-S U-Net(3D Deeply-Supervised U-Net)组成,实验使用了60例患者头颈部CT图像及MRI图像(T1和T2模态),其中随机选取15例患者数据作为测试集,并使用相似性系数(DSC)评估视交叉的自动分割精度。结果:对于测试集中的所有病例,采用多模态数据(CT和MRI)的视交叉的DSC为0.645±0.085,采用单模态数据(CT)的视交叉的DSC为0.552±0.096。结论:基于级联3D U-Net的多模态自动分割模型能够较为准确地实现视交叉的自动分割,且优于仅利用单模态数据的方法,可以辅助医生提高放疗计划制定的工作效率。  相似文献   

2.
目的:利用基于深度学习的人工智能算法,结合头颅MRI和CT的多模态影像,开发海马结构自动勾画技术,为头颅放疗过程中海马体的保护提供高效、准确的自动勾画方法。方法:收集清华大学第一附属医院放疗科从2020年1月~12月就诊的40例脑转移癌患者的定位头颅CT及MRI影像,分别在CT图像、CT-MRI配准图像的两个数据集上训练3D U-Net、3D U-Net Cascade、3D BUC-Net 3个深度学习模型,计算3个模型自动分割的左右海马体与对应的人工标注之间的Dice相似系数(DSC)和95%豪斯多夫距离(95 HD),以及两者的体积作为模型的分割准确性的评估,并且以对同一大小patch图像的自动分割耗时作为模型效率的评估。结果:引入MRI图像信息对左右海马的自动分割精度有明显的提升;模型3D BUC-Net在CT-MRI数据集上对左右海马体的自动分割都取得最好分割结果(DSC:0.900±0.017,0.882±0.026;95HD:0.792±0.084,0.823±0.093),而且该模型的分割效率更高。结论:模型3D BUC-Net能在多模态影像上实现高效、准确的海马区的自动勾画,为头颅放疗过程中海马区的保护提供方便。  相似文献   

3.
目的:结合伪MRI(sMRI)软组织信息,提出新的腹部器官自动勾画模型,改进CT软组织的勾画效果。方法:使用两个独立的深度神经网络分步完成病人腹部危及器官的自动勾画。首先,基于CycleGAN网络构建由CT图像转换sMRI图像的模型,采用去噪判别器等改进方法,得到器官轮廓一致的高清晰度sMRI。其次,使用sMRI与手工勾画信息训练自动勾画模型Residual U-Net,在CT和sMRI上分别自动勾画危及器官轮廓,Residual U-Net的残差模块能够充分利用提取到的特征来区分不同的器官。采用戴斯相似性系数(DSC)作为自动勾画模型分割精度的评价标准,35例宫颈癌与35例前列腺癌患者用于自动勾画模型的训练和评估。结果:结合sMRI信息的自动勾画模型在直肠、膀胱、左右股骨头的平均DSC分别为0.779±0.021、0.944±0.006、0.834±0.006、0.845±0.021。结论:使用结合sMRI信息的腹部CT自动勾画方法,可以在直肠获得更精确的自动勾画结果。  相似文献   

4.
从腹部CT图像中分割并重建胰腺3D模型对于辅助疾病诊疗有重要意义。由于胰腺在图像中占比小且与周边组织难以区分等原因,现有方法准确性和稳定性不足。本研究提出一种双重降维和通道注意力门控U型网络,在编码路径中以双重降维模块加强浅层特征空间有效信息提取,在编解码连接中嵌入通道注意力门控模块从通道层级过滤冗余特征。在NIH发布的胰腺分割公开数据集上(包括82例CT图像)进行实验,采用集合相似度(DSC)、召回率(R)和精确率(P)验证分割性能,使用三维顶点距离误差(VDE)评估3D重建效果。DSC、R和P值分别达到82.35%±5.76%、81.07%±8.50%、84.04%±5.40%,VDE降低至1.27±0.90,优于U-Net和Attention-Unet等方法。结果表明,所提出方法能够提高胰腺CT图像分割性能,重建的3D模型能够更好反映个体胰腺实际情况。  相似文献   

5.
目的:基于U-net卷积神经网络的深度学习方法,探讨宫颈癌放疗临床靶区和危及器官自动勾画的可行性。方法:利用U-net卷积神经网络模型搭建的端到端自动分割框架,以100例已进行IMRT治疗的宫颈癌患者CT及组织结构信息为研究对象,并随机选取其中的10例作为测试集。勾画的对象包括临床靶区(CTV)、膀胱、直肠和左、右股骨头5个部分,比较手动和自动勾画的戴斯相似性系数(DSC)和豪斯多夫距离(HD)以评估自动勾画模型的准确性。结果:4种危及器官自动勾画的DSC值都在0.833以上,平均值是0.898;HD值均在8.3 mm以内,平均值为5.3 mm;临床靶区DSC值是0.860,HD值为13.9 mm。结论:基于U-net卷积神经网络建立的自动勾画模型能较为准确地实现宫颈癌临床靶区和危及器官的自动勾画,临床应用中可大幅提高医生的工作效率及勾画的一致性。  相似文献   

6.
目的:由于胰腺体积小、形态个体差异性大,影像上的准确分割较为困难。本文提出一种基于2.5D级联卷积神经网络的CT图像胰腺分割方法。方法:实验中使用的数据为NIH胰腺分割公开数据集,共包含82例腹部CT图像,随机选取其中56、9、17例分别作为训练集、验证集和测试集;训练过程中使用旋转、拉伸、平移、裁剪等操作对数据进行扩增。实验中提出一种用于胰腺分割的、结合概率图的2.5D级联深度监督UNet,即CSNet(Cascading deep Supervision UNet)。该网络由3个部分组成:第1部分基于UNet,输入连续5层图像,输出中间3层对应的粗分割图像,设置适当的阈值,使其变成二值的粗分割结果;第2部分将第1层、第3层的粗分割结果与中间层的原始图像相结合,输入另一个深度监督UNet网络,得到中间层的精细分割;第3部分将第1部分网络输出的中间层的粗分割概率图与第2部分网络输出的细分割概率图通过1×1卷积进行概率融合得到最终的输出结果。3个子网络同时进行训练,对应的能量函数联合优化,从而得到更精准的分割结果。最后,使用DSC对分割结果进行评估。结果:在独立测试集上,CSNet实现了(83.74±5.27)%的DSC值。结论:CSNet可以准确分割出CT图像上的胰腺区域。  相似文献   

7.
目的 探讨神经网络的深度学习方法,进行颞骨CT内面神经、迷路及听骨结构的自动化分割的可行性和精确性。方法 选择常规颞骨CT检查患者的数据,随机分为两组,一组为训练集(20例),另一组为测试集(5例)。在上述颞骨CT中采用手工分割的方法,分割出迷路、听骨及面神经结构。选择三维卷积神经网络3D U-Net作为深度学习中的神经网络结构部分,通过对训练集的训练,得到该网络的平均精度。用该网络模型对5组测试集中的不同解剖标志自动分割的结果与手工分割的结果进行测试,分别获得面神经、迷路及听小骨的测试精度。并将上述精度与另一种基于三维卷积神经网络结构的V-Net网络模型获得的精度进行比较。结果 在颞骨CT标本中,采用面神经、迷路及听小骨分别对3D U-Net-plus和V-Net网络结构的自动分割进行训练,在训练样本中,3D U-Net-plus网络结构的平均误差为0.016,V-Net网络结构的平均误差为0.035,两者差异有统计学意义(P<0.05);利用3D U-Net-plus神经网络自动分割的迷路、听小骨及面神经与手工分割图像的Dice相似指数分别为0.618±0.107、0.584±0.089和0.313±0.069, 利用V-Net神经网络自动分割的迷路、听小骨、面神经与手工分割图像的Dice相似指数分别为0.322±0.089、0.176±0.100和0.128± 0.077,两者差异有统计学意义(P<0.001)。结论 采用3D U-Net-plus神经网络,在颞骨内听骨、迷路及面神经的自动识别和分割方面具有可行性,该方法优于V-Net神经网络。随着网络结构的优化和学习样本的扩大,其将更加接近人工分割的效果。  相似文献   

8.
目的:建立一种基于密集连接深度学习的端到端胸部CT图像危及器官自动分割方法,提供一个高精度的自动分割模型,减轻医师临床勾画的工作强度。方法:收集36例肺癌患者CT图像,27例作为训练集,随机取6例作为验证集进行交叉验证,测试集为9例,训练时间约为5 h,完成了左肺、右肺、脊髓、心脏4个危及器官的自动分割,并使用Dice系数、HD95距离与平均表面距离(ASD)3个指标对测试集进行测试。结果:测试集的分割结果显示,与U-Net与ResNet50相比,FC_DenseNet网络在Dice值、HD95、ASD指标上表现较好,但是不同网络之间的分割结果并没有显著差异(P>0.05),FC_DenseNet网络Dice值最高是左肺为0.98,最低为心脏0.84。结论:本研究的结果表明,密集连接结构的深度学习模型能够较为准确地分割左右肺、脊髓、心脏4个危及器官,这种特征图复用的思想为基于深度学习的医学图像分割提供了新思路。  相似文献   

9.
常艳奎  彭昭  周解平    皮一飞  吴昊天  吴爱东  徐榭    裴曦   《中国医学物理学杂志》2020,37(10):1218-1223
目的:拟分析基于不同医院数据的心脏自动勾画模型在临床应用中的适用性及其改进方法。方法:首先,建立基于U-net和Inception模块的心脏自动勾画网络。其次,收集不同治疗中心的患者数据:中国科学技术大学附属第一医院65例(数据1)、MICCAI2019比赛数据50例(数据2)、数据1和2的混合数据(数据3)、郑州大学第一附属医院50例(数据4)和郑州大学第一附属医院100例(数据5),分别训练得到模型1~5。然后,以郑州大学第一附属医院59例患者作为测试集,使用形状相似性系数(DSC)评估该测试集在不同模型上的分割精度,比较模型之间的差别。最后,将模型3作为心脏预训练模型,采用数据5进行模型再训练,分别测试3组实验(20例/次×5次、10例/次×10次、5例/次×20次)对心脏预训练模型的改进情况。结果:测试集在模型1~5中的平均DSC为0.926、0.932、0.939、0.941和0.950。在再训练过程中,模型在20例/次×5次的实验中表现更稳定。结论:基于不同医院的数据训练模型在心脏自动勾画的临床应用上表现存在差异,使用本地医院数据进行训练的模型预测精度更高。对于非本地数据训练的模型,基于本地数据再训练可以有效提高模型预测的精度,其中以20例/次的再训练方式效果较好。  相似文献   

10.
脊柱疾病的前期主要通过计算机断层扫描技术进行筛查与初步判断。为解决脊柱CT图像目前存在的椎骨结构复杂、分割精度不足等问题,提出一种基于3D U-Net框架的脊柱CT图像改进分割网络,通过融合SE残差单元、椎骨边缘分割模型与改进混合通道-空间注意力机制,在VerSe 19、VerSe 20与CTSpine1K脊柱数据集上进行分割训练与测试。多次测试实验结果表明,本文模型在保证分割精度和分割效率有效提高的同时具有较好的泛化性与鲁棒性,在Dice相似系数、豪斯多夫距离与平均表面距离上相较于其他先进网络分割精度更高。本文模型在现有脊柱分割的网络中具有更强的分割性能,可为放射科医生提供有效临床信息。  相似文献   

11.
勾画危及器官是放射治疗中的重要环节。目前人工勾画的方式依赖于医生的知识和经验,非常耗时且难以保证勾画准确性、一致性和重复性。为此,本研究提出一种深度卷积神经网络,用于头颈部危及器官的自动和精确勾画。研究回顾了496例鼻咽癌患者数据,随机选择376例用于训练集,60例用于验证集,60例作为测试集。使用三维(3D)U-NET深度卷积神经网络结构,结合Dice Loss和Generalized Dice Loss两种损失函数训练头颈部危及器官自动勾画深度卷积神经网络模型,评估参数为Dice相似性系数和Jaccard距离。19种危及器官Dice相似性指数平均达到0.91,Jaccard距离平均值为0.15。研究结果显示基于3D U-NET深度卷积神经网络结合Dice损失函数可以较好地应用于头颈部危及器官的自动勾画。  相似文献   

12.
目的:勾画危及器官是放射治疗中非常重要的常规工作。然而,目前的人工勾画非常耗时,而且依赖于医生的知识和经验。为此,本研究提出一种深度反卷积神经网络,用于自动和精确地勾画危及器官。 方法:深度反卷积神经网络是一个用于自动分割的端到端框架。实验使用了230例头颈部患者的数据,在其中随机选择了184例作为训练集,用于调制自动分割模型的参数,其余46例用作测试集评估方法的性能。用于分割的危及器官包括脑干、脊髓、左腮腺、右腮腺、左颞叶、右颞叶、甲状腺、喉、气管9个危及器官。自动分割精度的量化指标使用戴斯相似性系数和豪斯多夫距离。 结果:所有危及器官自动分割的戴斯相似性系数值均在0.70以上(平均值为0.81),豪斯多夫距离值在5.0 mm内(平均值为4.3 mm),表明本研究提出的自动分割方法能准确地分割危及器官。 结论:利用深度反卷积神经网络建立了一种自动分割危及器官的方法,可以得到较准确的结果,为放射治疗流程自动化提供了技术支持。  相似文献   

13.
【摘要】目的:测试和评估智能放疗云平台(RAIC.OIS)在食管癌患者心脏结构自动勾画中的应用。方法:选取2018年2月~11月收治的20例食管癌患者进行研究。首先,将20例患者的放疗定位CT图像从Eclipse治疗计划系统传输至连心医疗的智能放疗云平台(RAIC.OIS);然后,使用RAIC.OIS的自动勾画工具,对CT图像中的心脏结构进行自动勾画;最后,将勾画好的结构文件传输并导入Eclipse。通过比较自动勾画和手工勾画的体积差异、位置差异、形状一致性和勾画时间,评估该软件的自动勾画工具应用于心脏结构自动勾画的可行性。结果:根据测量的数据结果,发现有1例患者的心脏形状和位置比较特殊,排除该患者的数据,对余下19例患者的数据进行统计分析。自动和手工两种方式勾画食管癌患者心脏结构的体积差异为(-17.08±8.66)%,相似性指数值为0.87±0.05。x、y和z这3个方向的位置差异分别为(0.12±0.09)、(0.11±0.08)和(0.22±0.16) cm,总位置差异为(0.31±0.14) cm。19例患者的自动勾画时间为(83±12) s,手工勾画时间为(284±58) s。结论:智能放疗云平台的自动勾画工具,对绝大部分食管癌患者的心脏勾画能够达到满意的结果。使用该工具可缩短心脏结构的勾画时间,提高放疗工作效率。  相似文献   

14.
This study aims to automatically detect and segment the pancreas in portal venous phase contrast-enhanced computed tomography (CT) images. The institutional review board of the University of Erlangen-Nuremberg approved this study and waived the need for informed consent. Discriminative learning is used to build a pancreas tissue classifier incorporating spatial relationships between the pancreas and surrounding organs and vessels. Furthermore, discrete cosine and wavelet transforms are used to build texture features to describe local tissue appearance. Classification is used to guide a constrained statistical shape model to fit the data. The algorithm to detect and segment the pancreas was evaluated on 40 consecutive CT data that were acquired in the portal venous contrast agent phase. Manual segmentation of the pancreas was carried out by experienced radiologists and served as reference standard. Threefold cross validation was performed. The algorithm-based detection and segmentation yielded an average surface distance of 1.7 mm and an average overlap of 61.2 % compared with the reference standard. The overall runtime of the system was 20.4 min. The presented novel approach enables automatic pancreas segmentation in portal venous phase contrast-enhanced CT images which are included in almost every clinical routine abdominal CT examination. Reliable pancreatic segmentation is crucial for computer-aided detection systems and an organ-specific decision support.  相似文献   

15.
目的:探究基于增强CT的手动勾画与基于PET-CT的自动勾画方法在鼻咽癌放疗中的优劣性及应用价值。方法:采集34例鼻咽癌患者的PET-CT数据,比较医生分别在增强CT和PET-CT图像上勾画靶区的差异性,以CSCO指南在PET-CT双模态融合图像上手动勾画的靶区作为金标准,应用Matlab软件计算单一标准摄取值(SUV)阈值分割法和MIM软件自带的PET-EDGE分割法两者的重叠率Dice和豪斯多夫距离HD值,并采用t检验进行统计学分析。结果:基于增强CT图像的手动勾画法、基于PET-CT图像的单一SUV阈值法以及PET-EDGE自动勾画法,3者靶区分割结果的Dice值分别为0.706、0.736、0.806,HD值分别为12.601、11.631、6.143 mm。以PET-CT双模态图像作为参考的靶区手动勾画法与基于增强CT的手动勾画存在差异(Dice:P=8.33×10-7;HD:P=1.065×10-18);MIM软件自带的PET-EDGE靶区分割法Dice和HD值高于单一SUV阈值法,差异具有统计学意义(Dice:P=0.019 8;HD:P=0.013 7)。结论:在鼻咽癌肿瘤靶区的分割性能上,基于PET-CT图像的自动勾画优于基于增强CT图像的手动勾画,MIM软件自带的PET-EDGE分割法优于单一SUV阈值分割法。  相似文献   

16.
汪志    常艳奎  吴昊天  张键  徐榭  裴曦   《中国医学物理学杂志》2020,37(8):1071-1075
目的:将一款基于深度学习的危及器官自动勾画软件系统DeepViewer应用于临床,实现自动勾画肿瘤患者治疗计划中危及器官的功能。方法:DeepViewer使用改进后的全卷积神经网络U-Net来实现自动勾画患者CT扫描部位所包含的危及器官,并使用Dice相似性系数(DSC)对比分析这22种危及器官自动勾画与手动勾画的差异。结果:11种危及器官DSC平均值在0.9以上,5种危及器官DSC平均值为0.8~0.9,5种器官DSC平均值为0.7~0.8,视交叉DSC平均值最低,为0.676。总体结果表明DeepViewer系统能够较准确地自动勾画出危及器官,特别是左、右肺、膀胱、脑干等器官,已基本满足临床需求。结论:DeepViewer软件系统可以实现放疗肿瘤患者危及器官的自动勾画,准确性较高。同时,DeepViewer系统勾画完毕后,可以通过网络系统自动传输RTStructure DICOM3.0文件,无需其他操作,能极大地提高临床医生工作效率,降低治疗计划流程中的勾画总时间。  相似文献   

17.
将深度学习应用到医学影像中危及器官自动分割领域时,为解决训练样本不足时三维卷积神经网络优化出现的退化、梯度消失等问题,本研究将Dense Net与V-Net两个网络模型进行融合,开发一种用于三维计算机断层扫描(CT)图像自动分割的Dense V-Network算法,勾画女性盆腔危及器官。采用戴斯相似性系数(DSC)、豪斯多夫距离(HD)、杰卡德距离(JD)三个参数来定量评估分割效果。结果显示膀胱、小肠、直肠、股骨头和脊髓自动分割的DSC值均在0.87以上(平均值是0.9);JD值均在2.3以内(平均值是0.18);除小肠外,HD值均在0.9 cm以内(平均值是0.62 cm)。经验证,Dense V-Network网络可精准地勾画盆腔危及器官。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号