首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
常艳奎  彭昭  周解平    皮一飞  吴昊天  吴爱东  徐榭    裴曦   《中国医学物理学杂志》2020,37(10):1218-1223
目的:拟分析基于不同医院数据的心脏自动勾画模型在临床应用中的适用性及其改进方法。方法:首先,建立基于U-net和Inception模块的心脏自动勾画网络。其次,收集不同治疗中心的患者数据:中国科学技术大学附属第一医院65例(数据1)、MICCAI2019比赛数据50例(数据2)、数据1和2的混合数据(数据3)、郑州大学第一附属医院50例(数据4)和郑州大学第一附属医院100例(数据5),分别训练得到模型1~5。然后,以郑州大学第一附属医院59例患者作为测试集,使用形状相似性系数(DSC)评估该测试集在不同模型上的分割精度,比较模型之间的差别。最后,将模型3作为心脏预训练模型,采用数据5进行模型再训练,分别测试3组实验(20例/次×5次、10例/次×10次、5例/次×20次)对心脏预训练模型的改进情况。结果:测试集在模型1~5中的平均DSC为0.926、0.932、0.939、0.941和0.950。在再训练过程中,模型在20例/次×5次的实验中表现更稳定。结论:基于不同医院的数据训练模型在心脏自动勾画的临床应用上表现存在差异,使用本地医院数据进行训练的模型预测精度更高。对于非本地数据训练的模型,基于本地数据再训练可以有效提高模型预测的精度,其中以20例/次的再训练方式效果较好。  相似文献   

2.
勾画危及器官是放射治疗中的重要环节。目前人工勾画的方式依赖于医生的知识和经验,非常耗时且难以保证勾画准确性、一致性和重复性。为此,本研究提出一种深度卷积神经网络,用于头颈部危及器官的自动和精确勾画。研究回顾了496例鼻咽癌患者数据,随机选择376例用于训练集,60例用于验证集,60例作为测试集。使用三维(3D)U-NET深度卷积神经网络结构,结合Dice Loss和Generalized Dice Loss两种损失函数训练头颈部危及器官自动勾画深度卷积神经网络模型,评估参数为Dice相似性系数和Jaccard距离。19种危及器官Dice相似性指数平均达到0.91,Jaccard距离平均值为0.15。研究结果显示基于3D U-NET深度卷积神经网络结合Dice损失函数可以较好地应用于头颈部危及器官的自动勾画。  相似文献   

3.
目的:本文提出了一种基于边缘特征点匹配的X线自动全景成像方法。方法:一,采用双正交小波变换与Canny算子相结合的算法实现X线图像的有效边缘提取,并通过矩阵计算得到特征点;二,利用Pearson相关系数和随机抽样一致算法来建立图像之间的相关性和匹配性;三,利用渐入渐出的融合算法实现X线无缝全景成像。结果:该算法可快速高质量地实现骨科临床无外部特征的X线图像序列全景拼接。结论:该算法对弱对比度的X线图像序列全景拼接具有很强的鲁棒性,允许X线图像序列之间存在较小的图像旋转和缩放差异,有助于减少X线使用剂量,具有较强的应用价值。  相似文献   

4.
目的:基于U-net卷积神经网络的深度学习方法,探讨宫颈癌放疗临床靶区和危及器官自动勾画的可行性。方法:利用U-net卷积神经网络模型搭建的端到端自动分割框架,以100例已进行IMRT治疗的宫颈癌患者CT及组织结构信息为研究对象,并随机选取其中的10例作为测试集。勾画的对象包括临床靶区(CTV)、膀胱、直肠和左、右股骨头5个部分,比较手动和自动勾画的戴斯相似性系数(DSC)和豪斯多夫距离(HD)以评估自动勾画模型的准确性。结果:4种危及器官自动勾画的DSC值都在0.833以上,平均值是0.898;HD值均在8.3 mm以内,平均值为5.3 mm;临床靶区DSC值是0.860,HD值为13.9 mm。结论:基于U-net卷积神经网络建立的自动勾画模型能较为准确地实现宫颈癌临床靶区和危及器官的自动勾画,临床应用中可大幅提高医生的工作效率及勾画的一致性。  相似文献   

5.
【摘要】目的:评价基于人工智能的自动勾画系统(AccuContour自动勾画软件)对危及器官(OAR)勾画的几何准确性,探讨OAR自动勾画的几何准确性是否受OAR体积的影响。方法:选取161例患者,其中头颈部、胸部、盆腔肿瘤患者各40例,腹部肿瘤患者41例。分别采用AccuContour自动勾画软件和手动勾画的方式对晶体、视神经、眼球、垂体、脑干、腮腺、下颌骨、双肺、心脏、双肾、肝脏、直肠、膀胱、股骨头等部位进行勾画。统计各个勾画部位的戴斯相似系数(DSC)、豪斯多夫距离(HD)、Jaccard系数以及体积这4项参数,并使用DSC、Jaccard系数和HD评价自动勾画的几何准确性。对DSC、HD、Jaccard系数与体积进行Spearman相关性分析,并对晶体、视神经、眼球、腮腺、颞颌关节、双肺、双肾、股骨头等成对部位的DSC、HD、Jaccard系数之间进行Wilcoxon配对秩和检验。结果:各个部位的DSC均数均大于0.7;头颈部的Jaccard系数均数为0.557~0.880,其中最低的为右视神经,最高的为下颌骨。头颈部、胸部、盆腔的HD均数分别小于8、22、16 mm;除肝脏(HD=34.563 mm)外,腹部其他部位的HD均数均小于19 mm。DSCall、Jaccardall系数及HDall的大小与体积具有相关性(rDSC=0.757, PDSC=0.000;rJaccard=0.775, PJaccard=0.000;rHD=0.761, PHD=0.000)。晶体、视神经、眼球、垂体、脑干、腮腺、下颌骨、双肺、膀胱、股骨头等部位的DSC和Jaccard系数与OAR体积具有相关性(P<0.05),HD与体积不具有相关性(P>0.05)。双肺之间的DSC和Jaccard系数差异具有统计学意义(PDSC=0.000, PJaccard=0.000)。结论:AccuContour自动勾画软件对于OAR的勾画具有较高的准确性,自动勾画的几何准确性受OAR体积大小的影响。  相似文献   

6.
目的:面向放疗危及器官自动勾画构建基于U-Net的模型并针对肝脏分割构建3种改进模型。方法:采集共计184例肝癌患者和183例头部放疗患者的计算机断层扫描(CT)图像及组织结构信息,并结合公开数据集Sliver07用于模型的训练与评估。通过搭建U-Net模型并针对肝脏分割分别结合空洞卷积、SLIC超像素算法、区域生长算法进行训练并得到预测模型,利用预测模型对自动勾画结果进行预测。采用交并比(Io U)和平均交并比(MIo U)评价预测结果的精确性。结果:测试集头部放疗危及器官自动勾画预测结果MIo U为0.795~0.970,肝脏分割使用U-Net预测结果MIo U约为0.876,使用改进后模型预测结果MIo U约为0.888,并很好地约束了预测偏差较大结果的出现,使得测试样本中Io U结果小于0.8的数量占比从16.67%降至7.5%。直观勾画方面结合改进算法的模型比U-Net更能捕捉到复杂、混淆性的边界区域。结论:构建U-Net模型能够在头部放疗危及器官和肝脏自动勾画上表现良好,3种改进的模型能够在肝脏分割上具有更优的表现。  相似文献   

7.
束炅      王宏志      崔相利   《中国医学物理学杂志》2022,(3):295-299
目的:比较和分析两种自动勾画软件(AccuContour和DeepViewer)勾画危及器官的精确度,以此评估它们在不同肿瘤放射治疗中的适用程度和优越性。方法:回顾性选取中科院合肥肿瘤医院肿瘤患者60例,其中鼻咽癌、肺癌、乳腺癌、宫颈癌各15例,由同一个物理师在患者CT图像上手动勾画危及器官,再分别用两种自动勾画软件进行勾画。以手动勾画结果为标准,分别计算两种软件勾画结果的戴斯相似性系数(DSC)和绝对体积差(ΔV),并对两种勾画结果的差异进行配对t检验,比较两种软件勾画结果。结果:AccuContour软件和DeepViewer软件勾画结果的总体DSC分别为0.90±0.11和0.87±0.14(t=-5.029, P<0.05),总体ΔV分别为(13.23±18.77)和(29.89±45.27) cm3(t=7.344, P<0.05)。在20个危及器官中,AccuContour软件勾画结果的所有DSC均大于0.7,其中最大DSC为脑(0.99±0.00),最小DSC为右眼晶状体(0.71±0.11);DeepViewer软件勾画的结果有18个器官DSC大于等于0.7,其中,最大DSC为肺(0.98±0.00),最小DSC为右侧股骨头(0.63±0.18)。AccuContour软件勾画的13个器官的ΔV均小于DeepViewer勾画结果。结论:两种软件整体勾画效果均比较好,对于体积较大的危及器官,勾画效果要优于体积较小的器官,AccuContour软件勾画效果优于DeepViewer软件。  相似文献   

8.
目的:探究基于增强CT的手动勾画与基于PET-CT的自动勾画方法在鼻咽癌放疗中的优劣性及应用价值。方法:采集34例鼻咽癌患者的PET-CT数据,比较医生分别在增强CT和PET-CT图像上勾画靶区的差异性,以CSCO指南在PET-CT双模态融合图像上手动勾画的靶区作为金标准,应用Matlab软件计算单一标准摄取值(SUV)阈值分割法和MIM软件自带的PET-EDGE分割法两者的重叠率Dice和豪斯多夫距离HD值,并采用t检验进行统计学分析。结果:基于增强CT图像的手动勾画法、基于PET-CT图像的单一SUV阈值法以及PET-EDGE自动勾画法,3者靶区分割结果的Dice值分别为0.706、0.736、0.806,HD值分别为12.601、11.631、6.143 mm。以PET-CT双模态图像作为参考的靶区手动勾画法与基于增强CT的手动勾画存在差异(Dice:P=8.33×10-7;HD:P=1.065×10-18);MIM软件自带的PET-EDGE靶区分割法Dice和HD值高于单一SUV阈值法,差异具有统计学意义(Dice:P=0.019 8;HD:P=0.013 7)。结论:在鼻咽癌肿瘤靶区的分割性能上,基于PET-CT图像的自动勾画优于基于增强CT图像的手动勾画,MIM软件自带的PET-EDGE分割法优于单一SUV阈值分割法。  相似文献   

9.
本文中我们使用基于CT、MR和PET图像等值特征表面的配准算法对多模医学图像进行了配准研究,在CT、MR和PET的原始图像中提取等值特征表面,进行图像的几何对准,并对结果进行初步评估,同时对该算法的稳健性,搜索最近点策略和采样策略进行了研究,结果表明;这种方法能够达到亚像素级的配准精度,是一种稳健、高精度、全自动的配准方法。  相似文献   

10.
提出一种基于边缘流的距离图Snake模型的图像分割方法,用于淋巴结超声图像的分割。首先由给定的4个标记点获得Snake模型的初始轮廓,然后综合图像灰度和纹理特征构造边缘流,由边缘流演化所得边缘图来构造距离图,通过定义基于距离图的势能函数,作为Snake模型的外部势能,来引导模型形变,实现对淋巴结超声图像的半自动分割。  相似文献   

11.
针对深度学习的医学图像分割模型训练时间长和精度不精的问题,提出结合动态阈值可变FCMSPCNN的多尺度上下文编解码结构和注意力机制的CoA Unet(Context Attention Unet)分割方法。首先,使用动态阈值可变的FCMSPCNN预分割出目标矩形区域并使用掩码遮盖背景部分;然后,更深层卷积块加入快捷连接交叉融合不同层次的特征,并通过注意力门突出对目标特征的学习;最后,在编解码器最底层加入改进的多尺度上下文提取器可以更好地提取目标特征信息。模型分别在LiTs和DRIVE数据集上进行验证,肝脏分割指标Miou、Aver_HD、Aver_Dice分别为0.890 5、6.369 9、0.947 7,视网膜血管分割指标分别为0.589 2、9.255 9、0.740 9。实验表明,预处理能缩短4.3%~20.33%的训练时间并提升2%~6%分割精度,与其他5种分割方法相比,CoA Unet能取得更好的整体分割性能。  相似文献   

12.
沈镇炯  彭昭  孟祥银  汪志    徐榭    裴曦   《中国医学物理学杂志》2021,(8):950-954
目的:基于级联3D U-Net,利用配对患者头颈部数据[CT和磁共振图像(MRI)],取得比仅CT数据更高分割精度的视交叉自动分割结果。方法:该级联3D U-Net由一个原始3D U-Net和改进的3D D-S U-Net(3D Deeply-Supervised U-Net)组成,实验使用了60例患者头颈部CT图像及MRI图像(T1和T2模态),其中随机选取15例患者数据作为测试集,并使用相似性系数(DSC)评估视交叉的自动分割精度。结果:对于测试集中的所有病例,采用多模态数据(CT和MRI)的视交叉的DSC为0.645±0.085,采用单模态数据(CT)的视交叉的DSC为0.552±0.096。结论:基于级联3D U-Net的多模态自动分割模型能够较为准确地实现视交叉的自动分割,且优于仅利用单模态数据的方法,可以辅助医生提高放疗计划制定的工作效率。  相似文献   

13.
糖尿病黄斑水肿(DME)是导致糖尿病患者视力损害的常见原因。光学相干断层扫描技术(OCT)有助于增强对糖尿病视网膜病变的早期检测和预防。目前,OCT图像中的DME区域存在大量散斑噪声及小目标区域,现有的实例分割方法存在漏分割等问题。针对上述问题,本文利用特征金字塔转换器(FPT)改进SOLO_v2模型,提出了一种新的DME分割模型(SOLO-OCT),包括:(1)利用基于双域滤波去噪算法去除图像上存在的大量散斑噪声,提高输入图像质量;(2)引入FPT,提高模型对小目标的识别能力和学习能力;(3)改进非极大值抑制(NMS)算法,缓解对小目标区域的漏分割问题。将SOLO-OCT模型与其他实例分割模型(包括Mask R-CNN、SOLO和SOLO_v2)进行了比较,以评估其对DME区域的分割性能。与Mask R-CNN、SOLO和SOLO_v2模型相比,SOLO-OCT模型对DME区域的分割精度(mAP)提高了3.1%,对小目标DME区域的分割精度(APs)提高了2.2%,而单幅图像的处理时间(Fps)只增加了0.009 9 s。本文提出的DME分割模型(SOLO-OCT)可用于大规模糖尿病...  相似文献   

14.
目的:旨在研究自主创新设计的级联式深度卷积神经网络VB-Net在胃和胰腺上的自动分割精度及效率。方法:回顾分析150例胰腺癌患者临床资料,随机选取132例非增强CT数据和其中116例胰腺期增强CT以及结构数据进行胃及胰腺的分割模型训练。对剩余18例患者的非增强CT和胰腺期增强CT给予模型测试,使用戴斯相似性系数量化分析模型的分割精度,同时评估其分割效率。结果:基于非增强CT的胃、胰腺的自动分割平均DSC值分别为87.93%、80.05%;基于胰腺期增强CT的胃、胰腺自动分割平均DSC值分别为89.71%、84.79%。胃及胰腺的自动分割平均时间为1.22、0.84 s,手动分割平均时间为158.70、115.52 s。结论:基于VB-Net的胃及胰腺自动分割模型测试结果较为准确,且极大提高了器官分割的效率。  相似文献   

15.
汪志    常艳奎  吴昊天  张键  徐榭  裴曦   《中国医学物理学杂志》2020,37(8):1071-1075
目的:将一款基于深度学习的危及器官自动勾画软件系统DeepViewer应用于临床,实现自动勾画肿瘤患者治疗计划中危及器官的功能。方法:DeepViewer使用改进后的全卷积神经网络U-Net来实现自动勾画患者CT扫描部位所包含的危及器官,并使用Dice相似性系数(DSC)对比分析这22种危及器官自动勾画与手动勾画的差异。结果:11种危及器官DSC平均值在0.9以上,5种危及器官DSC平均值为0.8~0.9,5种器官DSC平均值为0.7~0.8,视交叉DSC平均值最低,为0.676。总体结果表明DeepViewer系统能够较准确地自动勾画出危及器官,特别是左、右肺、膀胱、脑干等器官,已基本满足临床需求。结论:DeepViewer软件系统可以实现放疗肿瘤患者危及器官的自动勾画,准确性较高。同时,DeepViewer系统勾画完毕后,可以通过网络系统自动传输RTStructure DICOM3.0文件,无需其他操作,能极大地提高临床医生工作效率,降低治疗计划流程中的勾画总时间。  相似文献   

16.
基于U-Net框架提出一种新的算法用于心电波形的分割。该方法将一定长度的心电信号作为输入,输出P波、QRS波和T波的分割图像,同时定位各个特征波的起始点和终止点,创新性地提出了多通道空洞卷积加上注意力机制的模型结构,并设计了一种数据增强公式用于增加数据的多样性。本研究提出的方法在LUDB上进行训练测试,在QTDB上验证算法的泛化能力。实验结果表明,所提的算法在LUDB的平均灵敏度、平均阳性预测率、平均F1分数分别为99.41%、98.90%、98.75%;在QTDB的平均灵敏度、平均阳性预测率、平均F1分数分别为98.65%、98.43%、98.23%,这说明本文算法效果更好,并具有优异的泛化性能。  相似文献   

17.
李雪    周金治    莫春梅    余玺   《中国医学物理学杂志》2021,(6):704-712
目的:将肺部颜色特征与纹理特征融合形成一种更有效的特征,并利用改进的U-Net深度学习网络结构对肺部CT影像进行图像分割以准确提取肺实质区域。方法:使用的CT影像数据来源于LIDC-IDRI数据库,首先通过色彩空间转换、高阶邻域统计的方法分别提取颜色特征和纹理特征,然后采用加权平均直方图融合两类特征,最后将特征输入改进后的U-Net模型,进行1 000次CT扫描测试,以达到完整的肺实质输出。结果:该方法最终的骰子系数、灵敏度、特异性分别为93%、96%和97%。结论:本方法较单一特征分割方法具有较高的分割精度,有效提高肺实质的分割精度,可为后续的肺部疾病自动诊断提供可靠基础,减少临床诊断的成本并节省医生诊断时间。  相似文献   

18.
目的:评估CT金属伪影对鼻咽癌放疗危及器官(OAR)自动勾画的影响。方法:选取有无牙齿修复物的鼻咽癌患者各16例,由放疗医师和深度学习自动勾画平台AccuContour分别勾画26种OAR轮廓。比较有无金属伪影患者不同OAR轮廓三维相似性系数(DSC)和Hausdorff距离(HD)以及有无金属伪影横断面内口腔和下颌骨的二维DSC和HD。同时记录人工勾画和自动勾画全部OAR的时间。结果:所有OAR的三维DSC和HD在有无金属伪影患者组间均无显著差异(P>0.05)。无金属伪影横断面内口腔的二维DSC和HD优于有伪影横断面(P<0.01),且伪影越严重,自动勾画的口腔轮廓局部偏离基准值越明显。自动勾画效率(<2 min)显著优于人工勾画效率(>70 min)。结论:牙齿修复物伪影对基于深度学习的鼻咽癌放疗OAR自动勾画的准确性和工作效率影响有限,较人工勾画方法仍然具备明显优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号