首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 140 毫秒
1.
目的:胸部X线图像中肺野的自动分割是相关疾病筛查和诊断的关键步骤,为了适应计算机辅助诊断系统的要求,提出一种基于空洞空间金字塔池化的U-Net网络对胸部X线图像中肺野进行自动分割。方法:在编码和解码之间引入带有空洞卷积的空间金字塔池化用于扩大接受域;同时,在多个尺度上获取图像上下文信息,用于从胸片中分割肺野,使用Montgomery数据集及深圳数据集进行验证。根据医学图像分割常用指标准确性、Dice相似系数及交并比评价基于空洞空间金字塔池化的U-Net网络分割肺野的性能。结果:验证准确性为98.29%,Dice相似系数为96.61%,交并比为93.47%。结论:本文提出一种基于空洞空间金字塔池化的U-Net网络用于分割肺野,相较于其他方法学习到更多边缘分割特征,取得更好的分割结果。  相似文献   

2.
目的:建立一种基于密集连接深度学习的端到端胸部CT图像危及器官自动分割方法,提供一个高精度的自动分割模型,减轻医师临床勾画的工作强度。方法:收集36例肺癌患者CT图像,27例作为训练集,随机取6例作为验证集进行交叉验证,测试集为9例,训练时间约为5 h,完成了左肺、右肺、脊髓、心脏4个危及器官的自动分割,并使用Dice系数、HD95距离与平均表面距离(ASD)3个指标对测试集进行测试。结果:测试集的分割结果显示,与U-Net与ResNet50相比,FC_DenseNet网络在Dice值、HD95、ASD指标上表现较好,但是不同网络之间的分割结果并没有显著差异(P>0.05),FC_DenseNet网络Dice值最高是左肺为0.98,最低为心脏0.84。结论:本研究的结果表明,密集连接结构的深度学习模型能够较为准确地分割左右肺、脊髓、心脏4个危及器官,这种特征图复用的思想为基于深度学习的医学图像分割提供了新思路。  相似文献   

3.
目的:结合全卷积神经网络(Fully Convolutional Network,FCN)和多孔卷积(Atrous Convolution,AC)的深度学习方法,实现放射治疗计划图像的组织器官自动勾画。方法:选取122套已经由放疗医师勾画好正常器官结构轮廓的胸部患者CT图像,以其中71套图像(8 532张轴向切层图像)作为训练集,31套图像(5 559张轴向切层图像)作为验证集,20套图像(3 589张轴向切层图像)作为测试集。选取5种公开的FCN网络模型,并结合FCN和AC算法形成3种改进的深度卷积神经网络,即带孔全卷积神经网络(Dilation Fully Convolutional Network,D-FCN)。分别以训练集图像对上述8种网络进行调优训练,使用验证集图像在训练过程中对8种神经网络进行器官自动识别勾画验证,以获取各网络的最佳分割模型,最后使用测试集图像对充分训练后获取的最佳分割模型进行勾画测试,比较自动勾画与医师勾画的相似度系数(Dice)评价各模型的图像分割能力。结果:使用训练图像集进行充分调优训练后,实验的各个神经网络均表现出较好的自动图像分割能力,其中改进的D-FCN 4s网络模型在测试实验中具有最佳的自动分割效果,其全局Dice为94.38%,左肺、右肺、心包、气管和食道等单个结构自动勾画的Dice分别为96.49%、96.75%、86.27%、61.51%和65.63%。结论:提出了一种改进型全卷积神经网络D-FCN,实验测试表明该网络模型可以有效地提高胸部放疗计划图像的自动分割精度,并可同时进行多目标的自动分割。  相似文献   

4.
针对皮肤病变图像分割在医疗诊断中的作用,提出一种基于多尺度编码-解码网络的皮肤病变图像分割算法。该算法继承了SegNet网络结构的训练速度快、训练模型存储小等特点,采用多尺度输入的方式增强了网络对皮肤病变图像的充分学习。此外,在编码网络中的pool2层输出一个二进制双线性插值的中间预测特征图到解码层的最后一层卷积块进行级联输入提高最终的分割精度。实验结果表明,采用多尺度编码-解码网络对皮肤病变图像分割具有极好的效果,在其他医学图像分割方面也能进行广泛应用。  相似文献   

5.
头颈部肿瘤放射治疗危及器官的准确勾画是放疗计划的关键步骤,然而头颈部放疗危及器官的精确分割挑战性很大,目前临床医生手动勾画危及器官非常繁琐、耗时且缺乏一致性。提出基于3D深度残差全卷积网络的头颈部肿瘤放疗危及器官自动分割方法,通过改进的V-Net网络分割模型,有效地结合危及器官CT影像的深层特征和浅层特征,同时根据特别设计的端到端监督学习确定危及器官分割模型参数。为了解决小器官类分布极不平衡问题,提出利用器官位置先验约束采样区域与随机采样相结合的训练样本选择策略,同时采用Dice损失函数对网络进行训练。该策略不仅可加速训练过程,提升分割性能,而且可保证小器官的分割准确率。该方法在2015年MICCAI头颈自动分割挑战赛数据集PDDCA上验证,各器官分割的Dice系数平均值分别为:颌下骨0.945、左腮腺0.884、右腮腺0.882、脑干0.863、左颌下腺0.825、右颌下腺0.842、左视神经0.807、右视神经0.847、视交叉0.583。大多数器官的95% Hausdorff距离小于3 mm,所有器官的勾画平均距离均小于1.2 mm。实验结果表明,该方法在除脑干以外的危及器官分割中性能比其他对比方法更优。  相似文献   

6.
针对肾脏肿瘤大小、位置不确定以及传统U-Net网络全自动分割肾脏肿瘤时易出现过拟合等难题,提出一种改进的多尺度卷积和残差U-Net(MSR U-Net)的肾脏肿瘤全自动分割方法。一方面,在残差模块中加入跳跃连接使网络收敛得更快,缓解过拟合现象;另一方面,在多尺度卷积模块中采用3种不同尺寸的卷积核,增加网络的感受野,解决网络提取的肿瘤特征尺寸单一问题。使用KITS19数据库中90例患者的CT切片进行相关验证性实验,MSR U-Net方法获得了肾脏的Dice系数为0.976和肿瘤的Dice系数为0.836,表明MSR U-Net在全自动肾脏肿瘤分割任务中的可行性和有效性。  相似文献   

7.
脑肿瘤图像分割问题是脑肿瘤临床诊断和治疗脑肿瘤疾病计算机辅助诊断的基础.针对脑肿瘤MRI图像分割网络深度过深和局部与全局特征信息联系匮乏导致图像分割精度降低等问题,提出一种基于三重注意力的脑肿瘤图像分割网络.首先,借鉴残差结构,将原始图像分割网络结构的编码层和解码层中的卷积模块替换为深度残差模块,解决网络加深带来的梯度...  相似文献   

8.
皮肤病灶图像分割可作为医学相关类疾病辅助诊断的重要依据。针对皮肤病灶区域结构复杂和尺度信息参差错落的特点,提出一种基于U型稠密特征融合的皮肤病灶分割方法。编码器利用稠密网络结构和空洞空间金字塔池化充分提取特征与融合,由稠密空间注意力模块与深度可分离卷积解码深层特征,防止病灶区域周围噪声干扰,同时引入融合压缩注意力模块进一步提高分割性能,通过二值交叉熵与Jaccard系数结合的损失函数优化。在ISBI 2016皮肤病灶数据集进行仿真评估,Jaccard相似度和Dice系数分别达到86.87%和92.98%,有助于提高皮肤病灶诊断效率。  相似文献   

9.
目的:利用2D/3D U-plus-net 提高心脏自动分割的准确率。方法:收集郑州大学第一附属医院60 例患者胸部扫 描CT图像(数据A)及中国科学技术大学附属第一医院45 例患者胸部扫描CT图像(数据B)。基于改进的AlexNet 将 CT 图像分为两类:心脏CT 图像和无心脏CT 图像。在2D/3D U-net 拓扑结构基础上,通过减小网络深度、在长连接中 增加新节点、增加解码器中卷积次数的方法,得到改进后的2D/3D U-plus-net;将靠近腹部的心脏CT图像(图像张数由 预实验决定)输入3D U-plus-net,其余图像输入2D U-plus-net;采用5 倍交叉验证法对模型进行训练及测试。最后通过 Dice 系数、HD95 和平均表面距离(MSD)评估自动分割精度。结果:数据A自动分割的Dice 系数为0.941±0.012,MSD 为(3.918±0.201)mm,HD95为(5.863±0.561)mm;数据B自动分割的Dice系数为0.934±0.014,MSD为(4.112±0.320)mm, HD95 为(6.035±0.659)mm。结论:基于2D/3D U-plus-net 的分割方法提高了心脏自动分割准确率。  相似文献   

10.
青光眼为多发性眼底疾病,是致盲的主要原因之一。眼底图像来源广,质量参差不齐,且视盘区域具有多尺度性特征,融合上下文信息有利于准确分割多尺度视盘边界。以U-Net为基础,结合上下文信息和卷积注意力模块(CBAM),提出了一种改进的视盘分割模型,包括:(1)使用实例-批处理归一化(IBN)模块与注意力机制改进主干网络ResNet34,提升分割模型的泛化性和图像通道特征的提取能力;(2)提出一种多层次上下文信息提取(MCE)模块处理主干网络输出的特征,融合上下文信息增强分割模型对视盘边缘特征的提取能力;(3)使用Transformer机制替换U-Net中的跳跃连接和上采样,进一步提高视盘多尺度特征和图像通道特征的提取能力。将改进的分割模型与U-Net、U-Net++、DeeplabV3+、FCN和PSPNet分割模型进行视盘分割精度比较,结果表明提出的分割模型具有更好的分割效果,Dice、MIoU、MPA和FPS指标分别为98.18%、96.45%、98.11%和17.56 Img/s。该研究成果可为青光眼的早期诊断提供技术支撑。  相似文献   

11.
肝脏分割对于肝肿瘤肝段切除及肝移植体积测量具有重要的临床价值。由于在CT影像中肝脏与邻近脏器的灰度值相似性很高,因此对肝脏区域的三维自动分割是一项具有挑战性的难题。为解决精准肝脏分割的问题,提出一种新型的深度全卷积网络结构3DUnet-C2。该结构充分利用肝脏CT图像的三维空间信息,并有效结合肝脏区域的浅层特征和深层特征。特别地,还提出一种新的3DUnet-C2网络训练策略,通过选取清晰图像,并从图像中截取肝脏区域作为样本进行训练的方式,得到初步3DUnet-C2模型权重,并使用该权重来初始化3DUnet-C2的网络参数,从而使网络达到收敛。最后,针对3DUnet-C2网络分割肝脏边界不精准的问题,在原有3DUnet-C2网络模型的基础上,运用三维条件随机场构建3DUnet-C2-CRF模型来优化肝脏分割边界。为了验证所提出三维分割模型的性能,从ISBI2017 Liver Tumor Segmentation Challenge的数据集中选取100张CT图像用于训练、验证和测试,3DUnet-C2-CRF模型在随机选取的20张测试集上的分割准确率的Dice系数为96.9%,高于3DUnet和Vnet模型的Dice系数。实验结果表明,3DUnet-C2-CRF模型具有更好的特征表达能力以及更强的泛化性能,从而可提升模型的分割准确率。  相似文献   

12.
目的:构建混合多尺度神经网络(HMnet)实现放疗临床靶区的自动勾画,提供一个高精度的CT影像自动分割模型。方法:HMnet是一种端到端的卷积神经网络,使用深度残差网络提取特征,由4个不同内核的卷积层组成的多尺度特征融合模块进行处理,以适应不同尺度大小的临床靶区;再引入注意力残差模块对多尺度特征融合模块输出的有效特征进行强化。共采用117例Graves眼病病例的CT影像数据和临床靶区轮廓训练和评估HMnet,选择骰子相似系数(DSC)、95%豪斯多夫距离(95HD)作为评估指标。结果:采用HMnet进行Graves眼病放疗临床靶区自动勾画的DSC为0.874 9,95HD为2.525 4 mm,均优于Unet、Vnet、ResAttUnet3D网络,也优于同一位医生两次勾画结果的平均DSC。结论:HMnet能准确实现Graves眼病放疗临床靶区的自动勾画,可提高放疗医生的工作效率及勾画的一致性。  相似文献   

13.
目的:结合伪MRI(sMRI)软组织信息,提出新的腹部器官自动勾画模型,改进CT软组织的勾画效果。方法:使用两个独立的深度神经网络分步完成病人腹部危及器官的自动勾画。首先,基于CycleGAN网络构建由CT图像转换sMRI图像的模型,采用去噪判别器等改进方法,得到器官轮廓一致的高清晰度sMRI。其次,使用sMRI与手工勾画信息训练自动勾画模型Residual U-Net,在CT和sMRI上分别自动勾画危及器官轮廓,Residual U-Net的残差模块能够充分利用提取到的特征来区分不同的器官。采用戴斯相似性系数(DSC)作为自动勾画模型分割精度的评价标准,35例宫颈癌与35例前列腺癌患者用于自动勾画模型的训练和评估。结果:结合sMRI信息的自动勾画模型在直肠、膀胱、左右股骨头的平均DSC分别为0.779±0.021、0.944±0.006、0.834±0.006、0.845±0.021。结论:使用结合sMRI信息的腹部CT自动勾画方法,可以在直肠获得更精确的自动勾画结果。  相似文献   

14.
结肠镜检查广泛应用于结直肠癌的早期筛查和诊疗,但仅靠人工判读结肠息肉漏检率较高,有研究统计可达25%.基于深度学习的计算机辅助技术有助于提高息肉检测率,但目前深度学习的主流分割网络U-Net存在着两个局限:一是编解码的输出特征图之间存在着语义鸿沟;二是U-Net的双层卷积单元无法学习多尺度信息;割裂地看待容易使模型陷入...  相似文献   

15.
Lung segmentation is a key step of thoracic computed tomography (CT) image processing, and it plays an important role in computer-aided pulmonary disease diagnostics. However, the presence of image noises, pathologies, vessels, individual anatomical varieties, and so on makes lung segmentation a complex task. In this paper, we present a fully automatic algorithm for segmenting lungs from thoracic CT images accurately. An input image is first spilt into a set of non-overlapping fixed-sized image patches, and a deep convolutional neural network model is constructed to extract initial lung regions by classifying image patches. Superpixel segmentation is then performed on the preprocessed thoracic CT image, and the lung contours are locally refined according to corresponding superpixel contours with our adjacent point statistics method. Segmented lung contours are further globally refined by an edge direction tracing technique for the inclusion of juxta-pleural lesions. Our algorithm is tested on a group of thoracic CT scans with interstitial lung diseases. Experiments show that our algorithm creates an average Dice similarity coefficient of 97.95% and Jaccard’s similarity index of 94.48%, with 2.8% average over-segmentation rate and 3.3% under-segmentation rate compared with manually segmented results. Meanwhile, it shows better performance compared with several feature-based machine learning methods and current methods on lung segmentation.  相似文献   

16.
将深度学习应用到医学影像中危及器官自动分割领域时,为解决训练样本不足时三维卷积神经网络优化出现的退化、梯度消失等问题,本研究将Dense Net与V-Net两个网络模型进行融合,开发一种用于三维计算机断层扫描(CT)图像自动分割的Dense V-Network算法,勾画女性盆腔危及器官。采用戴斯相似性系数(DSC)、豪斯多夫距离(HD)、杰卡德距离(JD)三个参数来定量评估分割效果。结果显示膀胱、小肠、直肠、股骨头和脊髓自动分割的DSC值均在0.87以上(平均值是0.9);JD值均在2.3以内(平均值是0.18);除小肠外,HD值均在0.9 cm以内(平均值是0.62 cm)。经验证,Dense V-Network网络可精准地勾画盆腔危及器官。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号