首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   4篇
  免费   9篇
临床医学   1篇
特种医学   12篇
  2022年   4篇
  2021年   6篇
  2020年   3篇
排序方式: 共有13条查询结果,搜索用时 31 毫秒
1.
目的:探讨基于深度学习的分类模型对腹盆部CT图像范围及期相进行自动分类的可行性。方法:回顾性搜集本院2019年10月14日-2019年10月18日PACS中连续416例患者的腹盆部CT图像(数据集A)。按照扫描范围分为腹部、腹盆部、盆部三类,按照扫描期相分为平扫、动脉期、门静脉期、延迟期和排泄期五类。以3D-ResNet为基础架构,训练CT图像范围及期相的分类模型。利用该模型预测2020年1月1日-2020年1月3日本院连续657例患者的腹盆部CT图像(数据集B)。以影像医师的分类结果为金标准,采用混淆矩阵评价模型的分类效能。结果:在数据集B中,扫描范围分类模型在腹部、腹盆部和盆部的符合率分别为95.7%(243/254)、98.4%(362/368)和94.3%(33/35)。对数据集B中的腹部图像进行分析,扫描期相分类模型在平扫、动脉期和门静脉期的符合率分别为100.0%(77/77)、97.6%(82/84)和100.0%(11/11);对数据集B中腹盆部图像进行分析,扫描期相分类模型在平扫、动脉期、门静脉期、延迟期和排泄期的符合率分别为96.6%(144/149)、100.0%(9/9)、100.0%(106/106)、66.7%(44/66)和100.0%(32/32);对数据集B中盆部图像分析,扫描期相分类模型在平扫、门静脉期、延迟期和排泄期的符合率分别为100.0%(13/13)、70.0%(7/10)、88.9%(8/9)和100.0%(1/1)。结论:通过深度学习模型建立腹盆部CT图像性质分类模型的准确性基本可达到临床要求。  相似文献   
2.
【摘要】目的:探讨基于DWI图像利用深度学习方法建立的分割模型对盆腔骨结构的自动分割价值,以及基于自动分割图像建立的影像组学模型对前列腺癌骨转移的诊断效能。方法:回顾性搜集2017年1月-2020年1月因临床怀疑前列腺癌而行盆腔多参数MRI扫描的614例患者的DWI数据,训练3D U-Net模型对盆腔骨质结构进行自动分割。以两位影像科医师手工勾画和标注的8个盆腔骨质结构(下腰椎、骶骨、髂骨、髋臼、耻骨、坐骨、股骨头、股骨颈)为金标准,在不同数据集(训练集、调优集、测试集)中,采用Dice相似系数(DSC)、Jaccard相似系数(JSC)和Hausdorff表面距离(HSD)评估3D U-Net模型自动分割盆腔各骨质结构的效能。另搜集2020年2月-2020年12月在本院经病理证实为前列腺癌的275例患者的影像资料,用于盆腔骨质结构分割模型的外部验证集及建立预测骨转移灶的影像组学模型,采用受试者工作特征曲线(ROC)评估影像组学模型的分类效能。结果:U-Net分割模型在测试集中的DSC、JSC和HSD值分别为0.87±0.03、0.77±0.04和21.75±12.08;在外部验证集中相应参数值分别为0.82±0.06、0.71±0.08和16.27±4.35。基于275例前列腺癌患者的盆腔骨质结构自动分割图像,共提取和筛选出20个影像组学特征参数,所建立的影像组学模型在测试集中的ROC曲线下面积(AUC)为0.965(95%CI:0.899~0.993),敏感度为97.14%(95%CI:85.1%~99.9%),特异度为89.36%(95%CI:76.9%~96.5%)。结论:基于DWI图像利用深度学习方法建立的自动分割模型能准确分割盆腔骨质结构,随后建立的影像组学模型可以有效检出盆腔范围内的骨转移灶,为自动评估前列腺癌患者盆腔骨转移提供了新方法。  相似文献   
3.
目的 探索基于深度学习对MRI图像上乳腺强化病灶形态分类的可行性。资料与方法 连续性收集并回顾分析2013年1月—2016年10月北京大学第一医院行双侧乳腺MR动态增强的290例患者的资料,使用既往研发的3D分割模型分割出乳腺中异常强化区域,由2位影像诊断医师根据第5版乳腺影像报告和数据系统病变分型(肿块、非肿块样强化)对375个图像进行分类。将上述数据按8∶1∶1随机分为训练集(n=297)、调优集(n=39)和测试集(n=39),使用Auto VGG网络训练分类预测模型,以测试集的混淆矩阵评价模型的效能。结果 2位影像医师对于乳腺病灶肿块与非肿块划分的初始一致性为0.917(344/375)。测试集39个数据中,26个为肿块,13个为非肿块样强化。肿块及非肿块样强化病例的三维径线(左右、前后、上下)及体积差异均无统计学意义(P均>0.05)。测试集39个数据的预测准确率为0.87,敏感度为0.96,特异度为0.69,精确度为0.86,F1评分为0.91。结论 使用深度学习方法进行乳腺MRI图像上强化病灶形态分类是可行的,有望在临床工作中应用。  相似文献   
4.
【摘要】目的:探讨3D U-Net模型自动分割颈椎矢状面T1WI和T2WI图像上颈椎各结构的可行性。方法:回顾性搜集拟诊为颈椎病的92例患者的矢状面T1WI和T2WI图像资料,由两位影像医师在每例患者的2个序列图像上分别人工标注颈椎各结构,包括椎体、椎间盘、硬膜囊、脊髓和椎间孔。将178个序列的图像随机分为训练集(n=138)、调优集(n=20)和测试集(n=20)。采用训练集的数据训练3D U-Net分割模型,在调优数据集中微调参数,在测试集中采用定量指标(Dice相似系数,DSC)和定性指标(主观评分)评价模型的分割效能,并比较各结构的DSC值在3组内及3组间是否存在统计学差异。结果:在测试集中3D U-Net模型分割颈椎椎体、椎间盘、硬膜囊、脊髓和椎间孔的DSC值分别为0.87±0.03、0.85±0.04、0.87±0.04、0.82±0.05和0.57±0.08,分割颈椎各解剖结构的总体DSC值为0.80±0.13。各结构的DSC值在3组内及组间均有统计学差异(P<0.001)。主观评价显示3D U-Net模型分割颈椎各结构获得的图像均符合临床测量要求。结论:基于矢状面T1WI和T2WI序列的3D U-Net模型对颈椎各结构的分割可达到较高的准确性。  相似文献   
5.
【摘要】目的:探索基于深度学习对乳腺X线密度(MD)进行分类的可行性。方法:回顾性分析2018年9月-12月本院行双侧乳腺X线摄影检查的305例连续资料,共1220个图像数据。由两位影像诊断医师挑选其中合格的数据分别进行乳腺密度的分类训练。由两位医师根据第5版乳腺影像报告和数据系统(BI-RADS)中X线MD分型(a、b、c、d)标准对1220个图像进行分类。将上述随机分训练集(train set,n=966)、调优集(validation set,n=128)和测试集(test set,n=126),采用AutoVGG网络训练分类预测模型,以测试集的混淆矩阵评价模型的效能。在模型预测的四分类基础上,将MD进行二分类,即:非致密组(a型和b型)和致密组(c型和d型),评价模型二分类预测的效能。结果:测试集的126个数据的预测符合率为0.83,a、b、c、d各型预测符合率分别为0.88、0.78、0.80和0.76。将MD分为致密组和非致密组时,非致密组精确度(precision)为0.90,召回率(recall)为0.74,F1值为0.81;致密组精确度为0.86,召回率为0.84,F1值为0.85。结论:采用深度学习方法进行乳腺X线摄影MD二分类是可行的,有望在临床工作中应用。  相似文献   
6.
【摘要】目的:基于深度学习方法训练辅助诊断模型,探究对头CT平扫(NCHCT)图像中脑梗死病灶自动分割的可行性。方法:搜集自2018年5月1日-2020年8月31日影像诊断报告中诊断印象包含“梗死”关键词的NCHCT连续病例1185例,筛选出最终证实为脑梗死的数据362例。由两位医师结合最终结果手工标注脑梗死区域。将数据按8:1:1的比例随机分为训练集(training set,n=288)、调优集(validate set,n=37)和测试集(test set,n=37 例)。训练2D U-net模型分割脑梗死病灶,分割结果自动输入到结构化报告中。对测试集的预测结果和人工标注的结果进行比较,统计梗死病灶体积、径线的差异,使用Dice相似系数(DSC)、体积相似度(VS)和Hausdorff距离(HD)评价模型的预测效能。使用Bland-Altman评价模型预测的病灶体积、径线和CT值与手工标注的一致性。结果:测试集中平均DSC为0.66 (95% CI:0.60~0.72),平均VS为0.75(95%CI:0.69~0.82),平均HD为39.69mm(95%CI:32.38~47.01)。Bland-Altman图显示模型预测与手工标注对病灶大小和CT值测量的一致性较高,体积、径线和CT值数据点位于95%一致性界限(95% limits of agreement,95% LoA)外的数据为2.8%~11.1%。结论:基于深度学习的辅助诊断模型可用于分割NCHCT中的脑梗死病灶,并自动生成报告,对患者分诊有一定作用。  相似文献   
7.
8.
【摘要】目的:利用U-Net模型实现CT图像肾脏分割,测量肾实质和肾窦体积和径线。方法:搜集本院PACS中365例腹部CT增强检查中双肾正常者动脉期薄层图像。其中93例用于训练U-Net分割模型,272例用于模型效能评价。由两位影像专家检查模型返回分割结果,评价结果是否可用于体积和径线测量。以去除最小连通域方法处理图像保留像素数计算双侧肾实质和肾窦的体积。以最小体积包围盒算法测量双侧肾实质、肾窦径线。测量结果自动填写到结构化报告完成肾脏大小定量评估。建模时人工标注93例和预测时模型分割效果好272例共同用于体积和径线测量。计算肾实质、肾窦体积及三维径线95%参考值范围,采用相关性分析探讨相关因素,应用多元线性回归分析探讨其影响因素。结果:专家评价U-Net模型可很好地完成双侧肾实质和肾窦分割。测试集中分割右肾实质DICE值0.97±0.01,分割左肾实质DICE值0.97±0.01,分割右肾窦DICE值0.84±0.06,分割左肾窦DICE值0.88±0.04。多元线性回归分析显示肾实质体积=0.654×身高-0.597×年龄+0.653×体重-6.321×侧别-8.824×性别,回归方程R2为0.304;肾窦体积=0.213×体重+0.168×年龄-4.162×侧别-2.052×性别+0.122×身高,回归方程R2为0.389。模型测量结果可自动填写入结构化报告中。结论:基于U-Net可有效分割CT图像肾实质和肾窦并测量径线及体积,自动完成影像报告中双肾大小定量评估;肾实质体积和肾窦体积均与性别、年龄、身高、体重、侧别有一定关联。  相似文献   
9.
【摘要】目的:训练U-Net深度学习模型对乳腺动态增强磁共振图像(DCE-MRI)上乳腺肿块进行自动分割、定位和体积测量,并将结果自动导入结构化报告中,探讨其植入临床工作流程的可行性,旨在提高诊断效率和效能。方法:回顾性分析2015年2月1日-2016年12月31日本院所有乳腺MR影像和报告资料,将已取得活检但尚未治疗的88例连续乳腺癌患者的数据纳入本研究。将入组病例随机分为训练集(train set,70例)、调优集(validation set,9例)和测试集(test set,9例)。完成MR图像数据格式转换后,由两位放射科医师在每例患者的MR图像上标注双侧乳腺,并标注1个最大且经病理证实的肿块。训练集中采用U-Net分割模型在DCE-MRI图像上分割乳腺轮廓,并序贯分割其中明显强化的肿块灶。客观评价:以测试集中肿块的Dice相似性系数(Dice similarity coefficient,DSC)值评价肿块分割效果。主观评价:由2位乳腺影像诊断专家对模型预测病灶的准确性进行评估,分析假阳性病灶的性质和特征。由U-net模型输出的分割肿块的三维径线、体积和定位信息,自动填写到乳腺BI-RADS结构化报告中,并与既往影像报告中医师人工测量的结果进行比较。结果:在测试集中专家标注了9个病灶,模型检出了其中7个病灶,敏感度为77.8%(7/9);2个未预测出的病灶,1个肿瘤主体部分有明显坏死,另1个为背景显著强化。在测试集中模型预测出了16个“假阳性”区域,其中10个为腺体内多发小的强化灶,4个为乳腺癌周围子灶,2个为强化的乳头和血管等。软件自动测量肿块的三维径线和医师手工测量乳腺病灶径线一致性高。模型分割肿块的平均DSC值为0.85。结论:U-Net深度学习模型可用于乳腺DCE-MRI图像上有明显强化病灶的分割和径线测量,有必要行大样本研究以论证和实现其临床应用。  相似文献   
10.
目的 评估3D U-Net深度学习(DL)模型基于盆腔T2WI自动分割盆腔软组织结构的可行性.方法 回顾性分析147例经病理证实或盆腔MRI随访观察确诊的前列腺癌或良性前列腺增生患者,其中28例接受2次、121例接受1次盆腔MR扫描,共175组T2WI;手动标注T2WI所示软组织结构,包括前列腺、膀胱、直肠、双侧精囊腺...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号