首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
目的探讨基于卷积神经网络(CNN)构建的人工智能辅助诊断模型对肾钝性创伤超声诊断的应用价值。 方法建立不同程度动物肾创伤模型,通过床旁超声仪采集正常肾及创伤肾超声图片,分成训练集及测试集,根据造模位置和超声造影结果,手动勾画出肾轮廓,采用3折交叉验证进行分类训练及测试。绘制受试者工作特征(ROC)曲线,计算人工智能辅助诊断模型的敏感度、特异度、准确性和曲线下面积(AUC)。 结果采集正常肾图片共1737张,各级别创伤肾图片共2125张,经过对测试集的验证,该模型可自动对肾创伤有无进行分类,对肾创伤诊断的平均敏感度为73%、平均特异度为85%、平均准确性为79%、AUC为0.80,诊断价值较高。 结论基于CNN构建的深度学习模型辅助床旁超声仪在诊断肾创伤有无分类中取得了较满意的结果。  相似文献   

2.
目的 基于剪切波弹性成像(SWE)量化参数和卷积神经网络建立深度学习(DL)模型预测肾脏病变。方法 采集94例肾脏病变患者(病例组)和109名健康人(对照组)的肾脏超声SWE量化参数。利用卷积神经网络建立DL模型,比较DL模型和支持向量机、随机森林模型预测肾脏病变的敏感度、特异度、准确率和曲线下面积(AUC)。结果 DL模型对预测肾脏病变的敏感度为90.48%,特异度为100%,准确率为95.12%,AUC为0.93;支持向量机模型的敏感度、特异度、准确率和AUC分别为80.74%、80.71%、80.98%、0.90,随机森林模型分别为82.22%、77.87%、80.33%和0.88。DL模型预测敏感度、特异度、准确率和AUC均高于支持向量机和随机森林模型,与支持向量机模型和随机森林模型预测肾脏病变差异均有统计学意义(P均<0.05)。结论 基于SWE量化参数和卷积神经网络的DL模型预测肾脏疾病性能良好,具有一定临床价值。  相似文献   

3.
目的建立基于深度学习的卷积神经网络肝损伤模型(CNLDM),并评估其对肝实质挫裂伤的诊断价值。 方法通过动物实验获得2009张含有肝实质挫裂伤超声图像及1302张正常肝超声图像,作为模型的训练集和验证集。回顾性收集2015年1月至2021年4月解放军总医院第一医学中心确诊存在肝实质挫裂伤的超声图像153张,以及81张不含肝实质挫裂伤的肝超声图像,作为模型的外部测试集。6名不同年资医师分别对测试集图像数据进行判读。使用受试者操作特征(ROC)曲线及决策曲线分析(DCA)检验模型效能,比较不同年资医师与CNLDM模型预测肝实质挫裂伤的敏感度、特异度、准确性、阴性预测值及阳性预测值。 结果CNLDM模型诊断效能(敏感度为80%,特异度为77%,阳性预测值为87%,阴性预测值为66%)优于低年资医师组(敏感度为61%,特异度为75%,阳性预测值为82%,阴性预测值为51%),略差于高年资医师组(敏感度为84%,特异度为86%,阳性预测值为92%,阴性预测值为75%),差异具有统计学意义(H=15.306,P<0.001;H=3.289,P<0.001),而模型效能与中年资医师组接近,差异无统计学意义(P>0.05)。DCA显示模型在阈值0.4~0.6之间有较好的测试集收益。 结论基于超声的人工智能模型可以较为准确地区分正常肝与含有肝实质挫裂伤的异常肝,对进一步指导临床诊治工作具有重要的意义。  相似文献   

4.
目的 本研究旨在开发用于卵巢肿瘤良恶性超声图像自动诊断的卷积神经网络(CNN)模型,评估该模型与低年资超声医师单独及联合诊断卵巢肿瘤良恶性的效能。方法 选取336例行经阴道超声检查且有明确病理结果的卵巢肿瘤患者,评估CNN模型对卵巢肿瘤超声图像良恶性分类的效能。绘制受试者工作特征(ROC)曲线,对比低年资超声医师、CNN模型以及联合诊断3种方式的诊断效能。结果 低年资超声医师诊断卵巢良恶性肿瘤的特异度和阳性预测值(79.55%和76.77%)高于CNN模型,而准确度、灵敏度和阴性预测值(77.08%、74.38%和77.35%)显著低于CNN模型;二者联合诊断准确度、特异度、阳性预测值和阴性预测值(84.23%、87.50%、85.43%和83.24%)均显著高于任一种单独诊断方式,仅灵敏度(80.63%)略低于CNN模型。联合诊断的受试者工作特征曲线下面积(AUC)为0.84,显著高于单独诊断的低年资医师(AUC为0.77)及CNN模型(AUC为0.79)。结论 CNN模型可以有效鉴别卵巢肿瘤的良恶性,CNN模型和低年资医师诊断效能相近,二者联合诊断有助于提升低年资超声医师对卵巢肿瘤...  相似文献   

5.
目的 观察利用深度学习(DL)融合常规超声和超声弹性成像诊断乳腺良、恶性肿瘤的效能。方法 利用DL卷积神经网络(CNN)提取乳腺肿瘤超声灰阶与超声弹性特征,并进行多模态融合,评价融合弹性图像或弹性比值等不同信息方式对乳腺良、恶性肿瘤的诊断效能;绘制受试者工作特征(ROC)曲线,计算曲线下面积(AUC),评估多模态融合模型的诊断效能。结果 多模态融合模型鉴别乳腺良、恶性肿物的效能优于单模态常规超声或弹性模型,其中融合灰阶与弹性图像模型鉴别诊断效能优于融合灰阶与弹性比值模型,分类准确率达93.51%,敏感度为94.88%,特异度为92.25%,AUC达0.975。结论 计算机辅助多模态融合有助于提高超声对乳腺良、恶性肿瘤的诊断效能。  相似文献   

6.
目的探讨S-Detectd的诊断效能及其临床应用价值。 方法选取2019年4月至7月于北京大学肿瘤医院乳腺中心超声室接受超声诊断及S-Detect检查的患者378例,共计390个病灶进行回顾性分析。以组织病理诊断为金标准,应用诊断试验四格表分别计算超声医师及S-Detect对乳腺病灶良恶性诊断的敏感度、特异度、准确性、阳性预测值及阴性预测值,采用Kappa检验对S-Detect及超声医师与病理诊断结果的一致性进行分析;对S-Detect判断不确定的病灶进行假设判定,假设判定均为恶性为S-Detect 1、均为良性为S-Detect 2,并分别计算S-Detect 1与S-Detect2的诊断敏感度、特异度、准确性、阳性预测值及阴性预测值。 结果病理结果提示,378例患者共计390个病灶中恶性病灶260个,良性病灶130个。S-Detect的诊断敏感度、特异度、阳性预测值、阴性预测值与准确性分别为94.6%、56.2%、81.2%、83.9%、81.8%。超声医师的诊断敏感度、特异度、阳性预测值、阴性预测值与准确性分别为100.0%、9.2%、71.0%、100.0%、69.7%。Kappa分析结果显示:S-Detect与病理诊断结果的一致性较超声医师与病理诊断结果的一致性好(Kappa值:0.553 vs 0.119,P<0.05)。将S-Detect判断不确定的69个病灶进行假设判定,结果显示,S-Detect 1的诊断敏感度、特异度、阳性预测值、阴性预测值和准确性分别为94.6%、56.2%、81.2%、83.9%、81.8%;S-Detect 2的诊断敏感度、特异度、阳性预测值、阴性预测值和准确性分别为79.6%、79.2%、88.5%、66.0%、79.5%。 结论S-Detect技术对乳腺病灶具有一定的诊断价值,尤其对于良性病灶的诊断符合率优于超声医师,但在临床应用中仍存在部分病灶判断不明确等局限性,如何在临床中更加恰当地结合使用S-Detect还需要更深入的数据研究加以证实。  相似文献   

7.
目的探讨超声造影(CEUS)与实时组织弹性成像(UE)联合评分对乳腺超声影像报告和数据系统(BI-RADS)诊断为4类的乳腺病灶的良恶性鉴别诊断价值。 方法选取2012年4月至2016年2月在浙江大学医学院附属第二医院常规超声检查且诊断为BI-RADS 4类的158例患者共172个乳腺病灶行CEUS及UE检查,分别对每个病灶进行赋值评分,以穿刺或手术病理为金标准,构建ROC曲线,分析CEUS和UE联合评分法对BI-RADS 4类病灶的良恶性鉴别诊断价值。 结果172个病灶中,病理学诊断良性80个,恶性92个,单独应用CEUS评分法分析乳腺BI-RADS 4类病灶的ROC曲线下面积(AUC)、敏感度、特异度、准确性分别为0.894、84.78%、85.00%、84.88%;单独应用UE评分法分析乳腺BI-RADS 4类病灶的ROC曲线下面积(AUC)、敏感度、特异度、准确性分别为0.844、82.61%、82.50%、82.56%。把造影和弹性评分法联合,以7分为诊断界点(AUC为0.951),其敏感度、特异度、准确性为94.57%、93.75%、94.19%,均高于单独评分法(P<0.05)。 结论应用超声造影及弹性成像联合评分法能够明显提高乳腺BI-RADS 4类病灶的诊断准确率,可作为BI-RADS分类的补充,减少不必要的术前活检,值得临床推广应用。  相似文献   

8.
目的比较超声与正电子发射型计算机断层成像(PET/CT)技术在乳腺癌早期诊断中的应用价值。方法选取2014年2月至12月在北京协和医院行乳腺病变切除活检术的患者38例,共40个病灶,分别行超声及PET/CT检查,以病理诊断为"金标准"分别统计自动乳腺全容积成像系统(ABVS)及PET/CT的敏感度、特异度、准确性、假阳性、假阴性、阳性及阴性预测值。结果超声对乳腺癌诊断的敏感度95.65%、特异度70.59%、准确性85.00%;PET/CT技术对乳腺癌诊断的敏感度86.96%、特异度82.35%、准确性85.00%;两者联合应用的诊断敏感度86.96%、特异度94.12%、准确性90.00%。10例乳腺癌淋巴结转移的患者中,PET/CT技术对转移淋巴结诊断的敏感度、特异度及准确性分别为90.0%、92.8%、92.1%,超声对转移淋巴结诊断的敏感度、特异度及准确性分别为70.0%、96.4%、89.5%。结论超声与PET/CT检查对乳腺癌的诊断均为有效的方法。两者联合应用可显著提高诊断的特异度与准确性。PET/CT对淋巴结转移灶敏感度较高,有利于临床分期,对临床治疗方案的选择及患者的预后有重要意义。  相似文献   

9.
目的 设计跨模态注意力机制特征融合模块,观察其用于B型超声与弹性超声联合诊断乳腺良、恶性肿瘤的价值。方法 收集371例接受常规超声检查及超声弹性成像的女性乳腺肿瘤患者、共466处病灶;按3∶1∶1将466组病灶图像分为训练集(n=280)、验证集(n=93)及测试集(n=93)。采用卷积神经网络分支模型分别提取B型超声图像和弹性超声图像特征,之后以基于跨模态注意力机制的多模态特征融合网络进行特征融合,观察其诊断乳腺良、恶性肿瘤的价值。结果 改进后的DenseNet用于B型超声诊断乳腺良、恶性肿瘤的准确率为88.43%,敏感度为88.96%,特异度为87.31%,其效能略优于改进前。基于跨模态注意机制特征融合的B型超声与弹性超声联合诊断乳腺良、恶性肿瘤的准确率为94.23%,敏感度为95.11%,特异度为93.28%,效能优于决策加权融合模型、直接串联融合模型及单模态模型。结论 跨模态注意力机制特征融合模块可在一定程度上提高B型超声与弹性超声联合诊断乳腺良、恶性肿瘤的效能。  相似文献   

10.
目的探讨超声、MRI对钼靶BI-RADSⅢ级乳腺病变的诊断效能对比。方法收集经病理证实的39例女性患者共41个钼靶BI-RADSⅢⅣ级乳腺病变的诊断效能对比。方法收集经病理证实的39例女性患者共41个钼靶BI-RADSⅢ级乳腺病灶,分析其超声及MRI影像表现,对比两种影像学检查方法的诊断效能。结果超声对BI-RADSⅢⅣ级乳腺病灶,分析其超声及MRI影像表现,对比两种影像学检查方法的诊断效能。结果超声对BI-RADSⅢ级乳腺病变的诊断敏感度为92.3%、特异度为82.1%、阳性预测值为70.6%、阴性预测值为95.8%,MRI的诊断敏感度为92.3%、特异度为89.3%、阳性预测值为80.0%、阴性预测值为96.2%。超声、MRI的诊断准确性分别为85.4%、90.2%,经配对卡方检验两者间差异无统计学意义(P=0.687)。结论超声、MRI均可提高钼靶BI-RADSⅢⅣ级乳腺病变的诊断敏感度为92.3%、特异度为82.1%、阳性预测值为70.6%、阴性预测值为95.8%,MRI的诊断敏感度为92.3%、特异度为89.3%、阳性预测值为80.0%、阴性预测值为96.2%。超声、MRI的诊断准确性分别为85.4%、90.2%,经配对卡方检验两者间差异无统计学意义(P=0.687)。结论超声、MRI均可提高钼靶BI-RADSⅢ级乳腺病变的检出率及准确率,提高早期乳腺癌的诊断准确性。  相似文献   

11.
  目的  探究DenseNet网络深度学习分析CT图像鉴别肺结节良恶性的价值。  方法  选取2017年2月~2019年5月我院收治的疑似肺结节患者80例,患者均进行CT扫描和DenseNet网络深度学习的人工智能系统诊断其良恶性,以病理结果作为金标准。分析CT图像、DenseNet网络深度学习分析联合CT图像对肺结节良恶性的诊断价值。  结果  CT图像表现肺密度增高影,有云雾状阴影,可清晰显示支气管内血管情况,评估结节良恶性准确率为88.75%,敏感度为76.92%,特异性为94.44%,与病理诊断的Kappa值为0.736(P < 0.001);DenseNet网络深度学习联合CT评估结节良恶性的敏感度为96.15%,特异性为88.89%,DenseNet网络深度学习联合CT评估准确率高于单纯CT评估准确率(91.25% vs 88.75%),且与病理诊断一致性较好(Kappa= 0.810,P < 0.001)。  结论  DenseNet网络深度学习分析CT图像鉴别肺结节良恶性准确性较高,且与病理结果具有较好的一致性。   相似文献   

12.
目的 基于迁移学习建立InceptionV3网络模型,观察其鉴别胰腺浆液性囊腺瘤(SCN)与黏液性囊腺瘤(MCN)的价值。方法 回顾性分析172例胰腺囊性肿瘤(PCN)患者,包括107例SCN和65例MCN;按3∶1∶1将其分为训练集(n=102)、验证集(n=34)和测试集(n=36),提取肿瘤T2WI特征。采用迁移学习方法建立InceptionV3网络模型并加以微调,与其他3种卷积神经网络模型和1种机器学习模型进行对比,评估InceptionV3网络模型鉴别胰腺SCN与MCN的价值。结果 基于迁移学习建立的InceptionV3网络模型鉴别胰腺SCN与MCN的准确率为96.13%,敏感度为96.55%,特异度为95.86%, F1值为0.96;所有效能指标均好于非迁移模型。替换全连接层(FC)基于迁移学习InceptionV3模型鉴别胰腺SCN与MCN的准确率为97.13%,敏感度为95.32%,特异度为98.79%,F1值为0.97,均优于冻结卷积层(Conv)及替换FC+冻结Conv模型。基于迁移学习InceptionV3网络模型鉴别胰腺SCN与MCN的效能指标均优于其他4种模...  相似文献   

13.
目的:探讨采用基于卷积神经网络(CNN)构建的人工智能辅助诊断模型对乳腺肿块四分类进行超声鉴别诊断的应用价值。方法:利用CNN构建辅助诊断模型,收集2016年1月至2018年1月首都医科大学附属北京天坛医院的2098例乳腺肿块患者(其中良性肿瘤1132例,恶性肿瘤779例,炎症32例,腺病155例)的10490张超声图像,将其分为训练集和测试集,对人工智能辅助诊断模型进行训练及测试。并将分别使用二维成像(two-dimensional imaging,2D)和二维彩色多普勒成像(two dimensional color Doppler flow imaging,2D-CDFI)的两组数据训练模型进行比较。分析乳腺良性肿瘤、恶性肿瘤、炎症、腺病患者的ROC曲线,计算ROC曲线下面积(AUC)。结果:使用2D-CDFI数据训练的模型比使用2D数据训练的模型对良性肿瘤和炎症的训练集和验证集的准确性有显著提高。①对于良性肿瘤的诊断,使用2D图片训练集的敏感性92%,特异性95%,AUC 0.93;使用2D-CDFI图片训练集的敏感性93%,特异性95%,AUC 0.93;使用2D图片测试集的敏感性91%,特异性96%,AUC 0.94;使用2D-CDFI图片测试集的敏感性93%,特异性94%,AUC 0.94。②对于恶性肿瘤的诊断,使用2D图片训练集的敏感性93%,特异性97%,AUC 0.94;使用2D-CDFI图片训练集的敏感性93%,特异性96%,AUC 0.94;使用2D图片测试集的敏感性93%,特异性96%,AUC 0.94;使用2D-CDFI图片测试集的敏感性93%,特异性96%,AUC 0.94。③对于炎症的诊断,使用2D图片训练集的敏感性81%,特异性99%,AUC 0.91;使用2D-CDFI图片训练集的敏感性86%,特异性99%,AUC 0.89;使用2D图片测试集的敏感性100%,特异性98%,AUC 0.98;使用2D-CDFI图片测试集的敏感性100%,特异性99%,AUC 0.96。④对于腺病的诊断,使用2D图片训练集的敏感性88%,特异性97%,AUC 0.94;使用2D-CDFI图片训练集的敏感性93%,特异性98%,AUC 0.94;使用2D图片测试集的敏感性94%,特异性98%,AUC 0.93;使用2D-CDFI图片测试集的敏感性88%,特异性99%,AUC 0.90。即使肿瘤的最大径<1 cm,也不影响准确性。结论:基于CNN构建的人工智能深度学习可以对乳腺肿块进行更细致的分类,提高诊断率,对乳腺肿瘤患者的治疗具有较好的指导作用。  相似文献   

14.
  目的  基于深度学习算法构建宫颈原位腺癌(cervical adenocarcinoma in situ, CAIS)病理图像诊断模型。  方法  回顾性收集2019年1月至2021年12月中国医科大学附属盛京医院病理科保存的CAIS患者病变组织、慢性宫颈炎患者正常宫颈管腺体病理切片。图像采集后,均按4∶3∶3的比例随机分为训练集、验证集和测试集。使用训练集、验证集数据对VGG16、VGG19、Inception V3、Xception、ResNet50和DenseNet201共6种网络模型进行迁移学习训练和参数调试,构建可识别CAIS病理图像的卷积神经网络二分类模型,并将模型进行组合,构建集成学习模型。基于测试集数据,采用运算时间、准确率、精确率、召回率、F1值、受试者操作特征曲线下面积(area under the curve,AUC)对模型识别CAIS病理图像的性能进行评价。  结果  共入选符合纳入和排除标准的CAIS患者病理切片104张、慢性宫颈炎患者正常宫颈管腺体病理切片90张。共收集CAIS、正常宫颈管腺体病理图像各500张,其中训练集、验证集、测试集图像分别400张、300张、300张。6种模型中,ResNet50模型的准确率(87.33%)、精确率(90.00%)、F1值(86.90%)及AUC(0.87)均最高,召回率(84.00%)居第2位,运算时间较短(2062.04 s),整体性能最佳,VGG19模型次之,Inception V3与Xception模型的性能最差。6种集成学习模型中,ResNet50与DenseNet201集成模型的整体性能最优,其准确率、精确率、召回率、F1值、AUC分别为89.67%、84.67%、94.07%、89.12%、0.90,VGG19与ResNet50集成模型次之。  结论  通过深度学习算法构建CAIS病理图像识别模型具有可行性,其中ResNet50模型的整体性能较高。集成学习可提高单一模型对病理图像的识别效果。  相似文献   

15.
To assist radiologists in breast cancer classification in automated breast ultrasound (ABUS) imaging, we propose a computer-aided diagnosis based on a convolutional neural network (CNN) that classifies breast lesions as benign and malignant. The proposed CNN adopts a modified Inception-v3 architecture to provide efficient feature extraction in ABUS imaging. Because the ABUS images can be visualized in transverse and coronal views, the proposed CNN provides an efficient way to extract multiview features from both views. The proposed CNN was trained and evaluated on 316 breast lesions (135 malignant and 181 benign). An observer performance test was conducted to compare five human reviewers' diagnostic performance before and after referring to the predicting outcomes of the proposed CNN. Our method achieved an area under the curve (AUC) value of 0.9468 with five-folder cross-validation, for which the sensitivity and specificity were 0.886 and 0.876, respectively. Compared with conventional machine learning-based feature extraction schemes, particularly principal component analysis (PCA) and histogram of oriented gradients (HOG), our method achieved a significant improvement in classification performance. The proposed CNN achieved a >10% increased AUC value compared with PCA and HOG. During the observer performance test, the diagnostic results of all human reviewers had increased AUC values and sensitivities after referring to the classification results of the proposed CNN, and four of the five human reviewers’ AUCs were significantly improved. The proposed CNN employing a multiview strategy showed promise for the diagnosis of breast cancer, and could be used as a second reviewer for increasing diagnostic reliability.  相似文献   

16.
  目的  通过人工智能自动识别结合DenseNet网络模型CT检查手段,探讨其在亚实性肺结节患者诊断中应用价值。  方法  选取2018年6月~2019年12月入本院经CT检查的亚实性肺结节患者98例,其中直径≤10 mm组患者32例,10 mm < 直径≤20 mm组患者33例,直径>20 mm组患者33例,将所有患者实施高分辨的CT诊断,并将CT检查数据录入基于DenseNet网络深度学习的人工智能系统,把控人工智能影像诊断的训练数据集质量,由人工智能组和人工读片组分别对所有患者进行良恶性的诊断,比较分析人工智能对肺结节不同直径患者的CT平扫、增强动脉期及延迟期中的CT值、体积及恶性概率的预测值,测试诊断方面的敏感度、特异性以及符合率。  结果  CT扫描对肺结节不同直径患者CT值、体积以及恶性概率的预测值差异均有统计学意义(P < 0.05);直径≤10 mm患者中,人工智能组的敏感度达94.61%,特异性(93.12%)和符合率(92.08%)均高于传统人工读片组(P < 0.05);10 mm < 直径≤20 mm和直径>20 mm患者中,人工智能组的诊断敏感度与人工读片组间差异无统计学意义(P>0.05),但诊断特异性及符合率均高于人工读片组(P < 0.05)。  结论  人工智能识别结合DenseNet网络模型CT可对肺结节识别的敏感度及特异性较高,平扫CT可辅助预测肺结节恶性概率,可辅助临床医生诊断,提高工作效率。   相似文献   

17.
摘 要 目的 探讨超声弹性成像联合声触诊组织成像量化技术(VTQ)对BI-RADS 4类乳腺肿块的诊断价值。方法 选取我院经病理确诊的乳腺肿块患者95例(共97个病灶),所有病例均先行二维超声诊断为BI-RADS 4类,再行弹性成像和VTQ检查,以病理结果为金标准,绘制二维超声、弹性成像联合VTQ检查诊断乳腺肿块的受试者工作特征曲线并比较其诊断效能;比较弹性成像联合VTQ技术与二维超声对乳腺肿块BI-RADS分类诊断结果的差异。结果 二维超声的诊断敏感性、特异性、准确率、阳性预测值、阴性预测值及AUC分别为87.8%、53.57%、41.38%、58.06%、85.71%及0.703,弹性成像联合VTQ技术调整后BI-RADS分类诊断的敏感性、特异性、准确率、阳性预测值、阴性预测值及AUC分别为95.12%、83.93%、79.05%、81.25%、95.92%及0.895,AUC比较差异有统计学意义(Z=2.26,P<0.05)。结论 弹性成像联合VTQ技术可提高对BI-RADS 4类乳腺肿块的诊断价值。  相似文献   

18.
目的 基于SPECT全身骨扫描构建YOLOv5x深度学习网络模型,观察其诊断良、恶性骨病灶的价值。方法 纳入699例接受SPECT骨扫描患者共5 182处骨病变,包括恶性3 105处、良性2 077处。按8:1:1将1 121幅骨扫描图像分为训练集(n=897)、验证集(n=112)及测试集(n=112)。对训练集及验证集数据进行增强后输入YOLOv5x深度学习网络进行训练得到模型,基于测试集评估模型识别良、恶性骨灶的敏感度、特异度和准确率,及其诊断结果与金标准的一致性。结果 骨扫描YOLOv5x深度学习网络模型识别恶性骨病变的敏感度为95.75%、特异度为87.87%、准确率为91.60%,识别良性骨病灶分别为91.62%、94.38%及93.14%。模型识别骨扫描图像中骨病灶的曲线下面积(AUC)为0.98,识别恶性、良性骨病灶的AUC分别为0.97、0.98。模型诊断恶性及良性骨病灶的结果与金标准的一致性均好(Kappa=0.83、0.86,P均<0.05)。结论 基于SPECT全身骨扫描建立的YOLOv5x深度学习网络模型有助于诊断良、恶性骨病灶。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号