首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   5篇
临床医学   1篇
特种医学   5篇
  2022年   2篇
  2021年   4篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
目的:探讨基于深度学习的分类模型对腹盆部CT图像范围及期相进行自动分类的可行性。方法:回顾性搜集本院2019年10月14日-2019年10月18日PACS中连续416例患者的腹盆部CT图像(数据集A)。按照扫描范围分为腹部、腹盆部、盆部三类,按照扫描期相分为平扫、动脉期、门静脉期、延迟期和排泄期五类。以3D-ResNet为基础架构,训练CT图像范围及期相的分类模型。利用该模型预测2020年1月1日-2020年1月3日本院连续657例患者的腹盆部CT图像(数据集B)。以影像医师的分类结果为金标准,采用混淆矩阵评价模型的分类效能。结果:在数据集B中,扫描范围分类模型在腹部、腹盆部和盆部的符合率分别为95.7%(243/254)、98.4%(362/368)和94.3%(33/35)。对数据集B中的腹部图像进行分析,扫描期相分类模型在平扫、动脉期和门静脉期的符合率分别为100.0%(77/77)、97.6%(82/84)和100.0%(11/11);对数据集B中腹盆部图像进行分析,扫描期相分类模型在平扫、动脉期、门静脉期、延迟期和排泄期的符合率分别为96.6%(144/149)、100.0%(9/9)、100.0%(106/106)、66.7%(44/66)和100.0%(32/32);对数据集B中盆部图像分析,扫描期相分类模型在平扫、门静脉期、延迟期和排泄期的符合率分别为100.0%(13/13)、70.0%(7/10)、88.9%(8/9)和100.0%(1/1)。结论:通过深度学习模型建立腹盆部CT图像性质分类模型的准确性基本可达到临床要求。  相似文献   
2.
【摘要】目的:探索基于深度学习对乳腺X线密度(MD)进行分类的可行性。方法:回顾性分析2018年9月-12月本院行双侧乳腺X线摄影检查的305例连续资料,共1220个图像数据。由两位影像诊断医师挑选其中合格的数据分别进行乳腺密度的分类训练。由两位医师根据第5版乳腺影像报告和数据系统(BI-RADS)中X线MD分型(a、b、c、d)标准对1220个图像进行分类。将上述随机分训练集(train set,n=966)、调优集(validation set,n=128)和测试集(test set,n=126),采用AutoVGG网络训练分类预测模型,以测试集的混淆矩阵评价模型的效能。在模型预测的四分类基础上,将MD进行二分类,即:非致密组(a型和b型)和致密组(c型和d型),评价模型二分类预测的效能。结果:测试集的126个数据的预测符合率为0.83,a、b、c、d各型预测符合率分别为0.88、0.78、0.80和0.76。将MD分为致密组和非致密组时,非致密组精确度(precision)为0.90,召回率(recall)为0.74,F1值为0.81;致密组精确度为0.86,召回率为0.84,F1值为0.85。结论:采用深度学习方法进行乳腺X线摄影MD二分类是可行的,有望在临床工作中应用。  相似文献   
3.
【摘要】目的:利用深度学习方法训练髌骨轴位X线片图像质量控制的自动分类模型。方法:回顾性收集髌骨轴位X线片,由两位专家将髌骨轴位X线片分为不同数据组以训练模型,分别为:术后/非术后共175例(术后96例,非术后79例),侧别共735例(左侧419例,右侧316例),图像质量共453例(图像质量不合格246例,图像质量合格207例)。上述每组数据均按8:1:1的比例随机分为训练集、调优集和测试集,即:术后/非术后为136例、21例、18例,侧别586例、75例、74例,图像质量为362例、46例、45例。训练HRNet模型对上述三组图像进行自动分类,应用混淆矩阵评价模型分类预测效能,以符合率为评价指标。结果:测试集中,三组图像分类模型的预测符合率依次为:术后/非术后94.4%(17/18)、侧别98.6%(73/74)、图像质量91.1%(41/45)。结论:基于深度学习训练的分类模型对髌骨轴位X线片进行图像质量控制效能良好,有利于工作流程的优化及后续对接AI诊断模型。  相似文献   
4.
【摘要】目的:探讨基于深度学习算法建立的上腹部DCE-MRI图像自动分类模型的立场应用价值。方法:回顾性搜集417例患者上腹部DCE-MRI扫描不同期相的共1330组图像数据。由两位专家将所有图像按平扫、动脉早期、动脉晚期和门静脉-延迟期进行分类。将1330组的数据随机分为训练集(train set,n=1118),调优集(validation set,n=108)和测试集(test set,n=104)。训练3D-ResNet模型对图像的扫描期相进行分类,应用混淆矩阵(confusion matrix)评价模型的分类预测效能。结果:在训练集、调优集及测试集中总体预测符合率分别为99.9%(1117/1118)、99.1%(107/108)和99.0%(103/104)。训练集及调优集中动脉晚期的预测符合率分别为99.5%(193/194)和90.9%(10/11),平扫、动脉早期及门静脉-延迟期的预测符合率均为100%。测试集中各期相图像分类符合率:平扫97.5%(39/40)、动脉早期100%(14/14)、动脉晚期100%(8/8)、门静脉-延迟期100%(42/42)。结论:基于深度学习方法训练的分类模型对DCE-MRI各期相图像的分类预测效能良好,有利于工作流程的优化及后续对接AI诊断模型。  相似文献   
5.
【摘要】目的:研究应用基于深度学习的3D-Unet网络模型在MRI图像中分割体部脂肪组织并生成定量结果的可行性。方法:回顾性搜集2020年4月1日-8月5日本院体部MR(包含GRE DIXON序列脂像)中符合入组标准的扫描病例用于模型训练。共搜集53例患者67个数据,包括胸部、腹部、盆腔图像各17、26、24例。由2名影像医生行图像标注,先以阈值分割方法将图像二值化,将脂肪组织分为皮下、肌骨、内脏3个区域,手工标注皮下脂肪、内脏脂肪得到标签。训练3D U-Net模型时将67个数据随机分为训练集(n=52)、调优集(n=6)和测试集(n=9)用于模型建立与评估。通过Dice系数、影像科医师评分来评价分割结果。根据分割结果生成脂肪体积、平均脂肪体积、脂肪比例、体部平均径线等结果,自动导入到结构化报告中。应用Wilcoxon配对检验、Pearson相关性分析、Bland-Altman分析、组内相关系数(ICC)将医师手工标注结果与模型输出结果比较。结果:内脏/皮下脂肪组织在模型训练集、调优集、测试集Dice系数分别为0.89/0.94;0.89/0.95和0.90/0.95。模型预测及手工标注内脏/皮下脂肪组织输出图像主观评分无统计学差异(P>0.05)。各部位模型预测结果生成脂肪体积、平均脂肪体积、脂肪比例、体部径线与医生手工标注结果之间的Pearson系数为0.968-1,ICC值为0.982-1,Bland-Altman分析显示良好的一致性。结论:MR图像基于深度学习行体部脂肪组织自动分割和定量测量可在技术上实现并有可能进一步研究此模型的临床应用价值。  相似文献   
6.
目的 评估3D U-Net深度学习(DL)模型基于盆腔T2WI自动分割盆腔软组织结构的可行性.方法 回顾性分析147例经病理证实或盆腔MRI随访观察确诊的前列腺癌或良性前列腺增生患者,其中28例接受2次、121例接受1次盆腔MR扫描,共175组T2WI;手动标注T2WI所示软组织结构,包括前列腺、膀胱、直肠、双侧精囊腺...  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号