首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
早期筛查是降低乳腺癌死亡率的重要手段。为了解决偏远、贫困地区医疗资源有限导致乳腺癌筛查率较低的问题,本文设计了一种基于便携式超声Clarius的乳腺癌辅助筛查系统。该系统在移动终端上对B超图像的肿瘤区域进行自动分割,在云服务器上利用超声射频数据进行肿瘤的良、恶性自动分类。本文研究实验结果表明,该系统对乳腺肿瘤分割准确率达到98%,良、恶性分类准确率达到82%,系统准确可靠。该系统架设方便、操作简单,便于偏远、贫困地区的患者进行乳腺癌早期筛查,有利于客观地对病情做出判断,是国内乳腺癌辅助筛查系统在移动终端上的首次实现。  相似文献   

2.
钼靶检查是当前临床诊断乳腺肿瘤的常规手段,患者痛苦相对较小、简便易行、分辨率高、可重复性好。为了提高诊断效率,减小误诊风险,针对乳腺钼靶图像开发基于人工智能的计算机辅助诊断系统(computer-aided diagnosis,CAD)显得尤为重要。传统的分类方法需要使用大量的手工特征,而深度学习能够自动从数据中学习特征,避免了传统算法中人工设计、提取特征的复杂性和局限性。我们从感兴趣区域和全图两个方面对近年来基于深度学习的乳腺钼靶图像分类方法研究进展予以综述和展望。调研发现深度学习在乳腺钼靶图像分类方面展示了不错的效果,其中基于深度卷积神经网络的分类方法已经成为当下的热门技术。  相似文献   

3.
乳腺癌是女性致死率最高的恶性肿瘤之一。为提高诊断效率,提供给医生更加客观和准确的诊断结果。借助影像组学的方法,利用公开数据集BreaKHis中82例患者的乳腺肿瘤病理图像,提取乳腺肿瘤病理图像的灰度特征、Haralick纹理特征、局部二值模式(LBP)特征和Gabor特征共139维影像组学特征,并用主成分分析(PCA)对影像组学特征进行降维,然后利用随机森林(RF)、极限学习机(ELM)、支持向量机(SVM)、k最近邻(kNN)等4种不同的分类器构建乳腺肿瘤良恶性的诊断模型,并对上述不同的特征集进行评估。结果表明,基于支持向量机的影像组学特征的分类效果最好,准确率能达到88.2%,灵敏性达到86.62%,特异性达到89.82%。影像组学方法可为乳腺肿瘤良恶性预测提供一种新型的检测手段,使乳腺肿瘤良恶性临床诊断的准确率得到很大提升。  相似文献   

4.
尝试为乳腺病灶良恶性分类提供高精度且无创的影像辅助诊断手段,提出了基于超声射频(radio frequency,RF)时间序列分析的乳腺病灶良恶性分类方法。以275例女性乳腺病灶为样本,使用常规超声探头采集多帧超声回波RF信号,提取RF时间序列的分形维数(fractal dimension,FD)、频域特征和时域特征,以支持向量机(support vector machine,SVM)和随机森林作为分类器对乳腺病灶进行良恶性分类。分类结果如下:SVM受试者工作特征曲线下的面积(area under receiver operating characteristics curve,AUC)为0.914,分类准确率为85.37%,随机森林AUC为0.937,分类准确率为91.46%。与以往研究相比,提高了乳腺病灶良恶性的分类精度,并开发了乳腺病灶良恶性分类系统,可以给医生提供诊断参考。  相似文献   

5.
目的:探讨计算机辅助诊断系统在良恶性肿瘤检测与特征提取基础上的分类对于乳腺肿瘤的诊断价值。方法:回顾性分析乳腺超声检查发现肿瘤且经过病理学证实的617例患者影像资料,采用手工提取的方式得到乳腺超声图像的感兴趣区域及病灶轮廓,再利用方向梯度直方图(HOG)、局部二值模式(LBP)和灰度共生矩阵(GLCM)3个特征进行乳腺肿瘤的良恶性病变真假阳性检测;最后用受试者操作特征曲线(ROC)分别分析每个特征对于两类病变判别的诊断性能和应用所有特征集合的分类诊断性能。结果:多特征融合方法的各项诊断效能及ROC曲线下面积(AUC)值均优于单特征LBP、HOG、GLCM(P值均<0.05)。与人工诊断相比,多特征融合的敏感性无显著差异,但特异度显著升高达98.57%(Z值=2.25, P<0.05),同时AUC值为0.985,显著优于人工诊断的0.910(Z值=1.99, P<0.05)。结论:计算机辅助系统乳腺超声肿瘤良恶性检测的算法是有效的,能够对乳腺癌鉴别诊断提供有益的参考。  相似文献   

6.
探讨纹理特征在超声乳腺肿瘤诊断中的价值。提取超声图像中乳腺肿瘤的纹理度量,得到由均值、标准差、平滑度、三阶矩、一致性和熵组成的特征矢量,最后用反向传播人工神经网络(BP)对96幅乳腺肿瘤的良恶性进行分类识别。BP 神经网络对良、恶性肿瘤的正确识别率分别为88.4%和78.6%。基于乳腺肿瘤超声图像的纹理特征建立的神经网络系统对肿瘤的良恶性具有较好的识别能力。  相似文献   

7.
目的 提出一种基于深度网络特征融合的分类方法,以提高良恶性分类的准确率,辅助医生提高术前诊断卵巢包块良恶性的准确率。方法 纳入深圳市人民医院943幅经活检、手术病理等证实的患者术前卵巢超声图像,按照6∶2∶2的比例随机设置训练集、验证集和测试集。首先,提取医生勾画的感兴趣区域(region of interest,ROI)即包块图,用微调后的EfficientNet网络提取其深度特征;然后用基于Chan-Vese模型的水平集方法得到包块边缘轮廓图,再用微调后的EfficientNet网络提取其深度特征;接下来将包块图的深度特征和边缘轮廓图的深度特征分别归一化后并拼接为融合特征;最后,将融合特征输入到全连接层分类器中,将超声图像分为良恶性。结果 本文提出的超声图融合专家知识的EfficientNet卵巢包块良恶性诊断方法在测试集上的准确度、特异度、敏感度和曲线下面积分别为0.81、0.78、0.88、0.91,全部优于当前主流的深度学习方法。结论 该特征融合网络能够取得较好的分类效果,一定程度上能够为临床诊断卵巢包块的良恶性提供参考。  相似文献   

8.
目的 比较二维、三维剪切波弹性成像(SWE)对早期乳腺癌的诊断价值.方法 选取2014年12月~2016年12月经病理证实的84例乳腺疾病患者(94个病灶),所有患者均行二维、三维彩超和基于2者的SWE检查.采用受试者操作特性曲线(ROC)确定诊断乳腺良恶性病变的最佳二维、三维SWE弹性模量最大值和平均值.依据病理检查结果,评价二维与三维SWE诊断乳腺良恶性病变的敏感度、特异性和准确性并进行比较.结果 鉴别乳腺良恶性病变的最佳二维SWE弹性模量最大值为98.82 kPa,平均值为43.88 kPa;最佳三维SWE弹性模量最大值为102.54 kPa,平均值为53.87 kPa.二维与三维SWE诊断乳腺癌的敏感度分别为89.5%和86.3%,差异无统计学意义(P>0.05);二维SWE诊断乳腺癌的特异性(95.3%)、准确性(92.7%)明显高于三维SWE(83.9%、85.1%),差异均具有统计学意义(均P<0.05).结论 二维SWE检查对乳腺良恶性病变的诊断效能明显高于三维SWE,为乳腺良恶性病变的鉴别诊断提供了可靠依据,值得临床推广应用.  相似文献   

9.
日益精细化的癌症医学图像提供了大量的有用信息,对辅助医生作出准确诊断发挥着至关重要的作用。为了准确、高效地利用这些信息,基于癌症医学图像的计算机辅助诊断(CAD)研究成为业界热点。近年来,深度学习技术的应用使这方面的研究取得了长足进步。本文拟就深度学习应用于癌症医学图像的计算机辅助诊断的研究进展予以综述。我们发现深度学习在肿瘤分割和分类方面展示了比传统浅层学习方法更好的效果,不仅有广阔的研究空间,也有较好的临床应用前景。  相似文献   

10.
乳腺肿瘤超声图像的自动分类对于提高医生的工作效率和降低漏诊率具有十分重要的意义。新型的三维乳腺超声数据包含更多的可用于诊断的信息,但由于超声成像机理导致不同方向上的图像表现不同。针对该种乳腺超声数据,利用卷积神经网络结构的灵活性和自动学习的特性,提出3种改进的卷积神经网络模型,使其分别可以接受横截面图像输入、横截面和冠状面的双图像输入、图像和文本信息同时输入,并研究不同信息的融合对于提升乳腺肿瘤自动分类准确率的影响。在研究中,采用880幅图像(良性401幅,恶性479幅)及其标注信息进行5折交叉验证实验,得到各模型的准确率及AUC。实验结果表明,设计的模型可以适应图片与文本信息的输入,多信息融合的模型比只接受图像输入的模型准确率提升2.91%,达到75.11%的准确率和0.829 4的AUC。这些模型的提出,为多信息融合的卷积神经网络分类应用提供参考。  相似文献   

11.
乳腺癌是全球女性癌症死亡的主要原因之一。现有诊断方法主要是医生通过乳腺癌观察组织病理学图像进行判断,不仅费时费力,而且依赖医生的专业知识和经验,使得诊断效率无法令人满意。针对以上问题,设计基于组织学图像的深度学习框架,以提高乳腺癌诊断准确性,同时减少医生的工作量。开发一个基于多网络特征融合和稀疏双关系正则化学习的分类模型:首先,通过子图像裁剪和颜色增强进行乳腺癌图像预处理;其次,使用深度学习模型中典型的3种深度卷积神经网络(InceptionV3、ResNet-50和VGG-16),提取乳腺癌病理图像的多网络深层卷积特征并进行特征融合;最后,通过利用两种关系(“样本-样本”和“特征-特征”关系)和lF正则化,提出一种有监督的双关系正则化学习方法进行特征降维,并使用支持向量机将乳腺癌病理图像区分为4类—正常、良性、原位癌和浸润性癌。实验中,通过使用ICIAR2018公共数据集中的400张乳腺癌病理图像进行验证,获得93%的分类准确性。融合多网络深层卷积特征可以有效地捕捉丰富的图像信息,而稀疏双关系正则化学习可以有效降低特征冗余并减少噪声干扰,有效地提高模型的分类性能。  相似文献   

12.
Liu  Yufeng  Wang  Shiwei  Qu  Jingjing  Tang  Rui  Wang  Chundan  Xiao  Fengchun  Pang  Peipei  Sun  Zhichao  Xu  Maosheng  Li  Jiaying 《BMC medical imaging》2023,23(1):1-15
Grading of cancer histopathology slides requires more pathologists and expert clinicians as well as it is time consuming to look manually into whole-slide images. Hence, an automated classification of histopathological breast cancer sub-type is useful for clinical diagnosis and therapeutic responses. Recent deep learning methods for medical image analysis suggest the utility of automated radiologic imaging classification for relating disease characteristics or diagnosis and patient stratification. To develop a hybrid model using the convolutional neural network (CNN) and the long short-term memory recurrent neural network (LSTM RNN) to classify four benign and four malignant breast cancer subtypes. The proposed CNN-LSTM leveraging on ImageNet uses a transfer learning approach in classifying and predicting four subtypes of each. The proposed model was evaluated on the BreakHis dataset comprises 2480 benign and 5429 malignant cancer images acquired at magnifications of 40×, 100×, 200× and 400×. The proposed hybrid CNN-LSTM model was compared with the existing CNN models used for breast histopathological image classification such as VGG-16, ResNet50, and Inception models. All the models were built using three different optimizers such as adaptive moment estimator (Adam), root mean square propagation (RMSProp), and stochastic gradient descent (SGD) optimizers by varying numbers of epochs. From the results, we noticed that the Adam optimizer was the best optimizer with maximum accuracy and minimum model loss for both the training and validation sets. The proposed hybrid CNN-LSTM model showed the highest overall accuracy of 99% for binary classification of benign and malignant cancer, and, whereas, 92.5% for multi-class classifier of benign and malignant cancer subtypes, respectively. To conclude, the proposed transfer learning approach outperformed the state-of-the-art machine and deep learning models in classifying benign and malignant cancer subtypes. The proposed method is feasible in classification of other cancers as well as diseases.  相似文献   

13.
Sonography is being considered for the screening of women at high risk for breast cancer. We are developing computerized detection methods to aid in the localization of lesions on breast ultrasound images. The detection scheme presented here is based on the analysis of posterior acoustic shadowing, since posterior acoustic shadowing is observed for many malignant lesions. The method uses a nonlinear filtering technique based on the skewness of the gray level distribution within a kernel of image data. The database used in this study included 400 breast ultrasound cases (757 images) consisting of complicated cysts, solid benign lesions, and malignant lesions. At a false-positive rate of 0.25 false positives per image, a detection sensitivity of 80% by case (66% by image) was achieved for malignant lesions. The performance for the overall database (at 0.25 false positives per image) was less at 42% sensitivity by case (30% by image) due to the more limited presence of posterior acoustic shadowing for benign solid lesions and the presence of posterior acoustic enhancement for cysts. Our computerized method for the detection of lesion shadows alerts radiologists to lesions that exhibit posterior acoustic shadowing. While this is not a characterization method, its performance is best for lesions that exhibit posterior acoustic shadowing such as malignant and, to a lesser extent, benign solid lesions. This method, in combination with other computerized sonographic detection methods, may ultimately help facilitate the use of ultrasound for breast cancer screening.  相似文献   

14.
MotivationIdentifying carcinoma subtype can help to select appropriate treatment options and determining the subtype of benign lesions can be beneficial to estimate the patients’ risk of developing cancer in the future. Pathologists’ assessment of lesion subtypes is considered as the gold standard, however, sometimes strong disagreements among pathologists for distinction among lesion subtypes have been previously reported in the literature.ObjectiveTo propose a framework for classifying hematoxylin-eosin stained breast digital slides either as benign or cancer, and then categorizing cancer and benign cases into four different subtypes each.Materials and methodsWe used data from a publicly available database (BreakHis) of 81 patients where each patient had images at four magnification factors (×40, ×100, ×200, and ×400) available, for a total of 7786 images. The proposed framework, called MuDeRN (MUlti-category classification of breast histopathological image using DEep Residual Networks) consisted of two stages. In the first stage, for each magnification factor, a deep residual network (ResNet) with 152 layers has been trained for classifying patches from the images as benign or malignant. In the next stage, the images classified as malignant were subdivided into four cancer subcategories and those categorized as benign were classified into four subtypes. Finally, the diagnosis for each patient was made by combining outputs of ResNets’ processed images in different magnification factors using a meta-decision tree.ResultsFor the malignant/benign classification of images, MuDeRN’s first stage achieved correct classification rates (CCR) of 98.52%, 97.90%, 98.33%, and 97.66% in ×40, ×100, ×200, and ×400 magnification factors respectively. For eight-class categorization of images based on the output of MuDeRN’s both stages, CCRs in four magnification factors were 95.40%, 94.90%, 95.70%, and 94.60%. Finally, for making patient-level diagnosis, MuDeRN achieved a CCR of 96.25% for eight-class categorization.ConclusionsMuDeRN can be helpful in the categorization of breast lesions.  相似文献   

15.
目的:为提高乳腺癌检测的精准度和效率,提出了一种基于自适应能量偏移场无边缘主动轮廓模型(AEOF-CV)的乳腺肿块分割与分类方法。方法:首先采用中值滤波、阈值分割及区域连通进行图像预处理,去除图像噪声;然后使用伽马变换及形态学运算相结合的方法进行图像增强;其次,采用AEOF-CV对弱对比度图像提高分割精度,用于乳腺肿块分割,得到感兴趣区域;最后使用不同提取特征方法,结合支持向量机识别感兴趣区域是否有肿块,并对存在肿块的图像判别肿块的良、恶性。结果:实验利用DDSM数据库中350个图像进行测试,实验结果证明,基于AEOF-CV乳腺肿块分割方法可以得到肿块清晰外部轮廓,具有较好的鲁棒性,误分率可达到0.212 0。无肿块样本识别率达到94.57%,恶性肿块识别率为97.91%,良性肿块识别率为96.96%,总识别率达94.00%。结论:基于AEOF-CV的乳腺肿块分割效果较好,误分率相对CV方法降低19.17%,查准率和查全率达到了0.851 9和0.836 5,全局分析性能较好,是乳腺肿块分割的有效方法,可为后续模式识别提供可靠依据。  相似文献   

16.
新辅助化疗提高了乳腺癌的治愈率,但并不是对所有患者都有效,准确预测化疗疗效可以为患者治疗方案的制定提供参考价值。本研究使用深度学习的方法,融合纵向时间的动态增强磁共振成像(DCE-MRI)的影像特征对新辅助化疗疗效进行预测。分析164例进行了乳腺癌新辅助化疗患者的DCE-MRI影像,从每例患者影像数据集中挑选肿瘤最大径及上下2张切片以扩充数据量至442例,并随机划分为训练集312例,测试集130例。DCE-MRI影像共6个序列,分割每个序列的乳房区域,去除皮肤和胸腔,使用深度学习模型分别根据化疗前影像、2个疗程化疗后影像、化疗前和2个疗程化疗后影像相融合对新辅助化疗疗效进行预测,并绘制预测结果的ROC曲线,计算对应曲线下面积(AUC)评估模型的分类性能。深度学习模型对化疗前影像、2个疗程化疗后影像的疗效预测的最佳AUC分别为0.775和0.808,融合化疗前和2个疗程化疗后影像对疗效进行预测的最佳AUC为0.863,预测效果优于仅使用化疗前的影像。实验结果表明,相较于单独使用化疗前影像,融合使用纵向时间的影像可以提高对新辅助化疗疗效的预测性能。  相似文献   

17.
为提高乳腺肿瘤分级诊断的能力,提出一种基于超声信号用于乳腺肿瘤分级诊断的图像增强算法。通过分析良性和不同恶性程度肿瘤的超声图像的特征差异,提出了一种将灰度的动态变换方法和利用局部标准差及熵特征相结合的办法,对图像对比度进行增强处理,增强了乳腺超声图像的细节,提高了图像质量。该算法可对良性、恶性肿瘤等不同超声图像进行增强处理,使得图像之间差异更加明显,为临床医生分级诊断提供更加清晰的图像,具有一定的实际应用价值。  相似文献   

18.
针对乳腺DCE-MRI病灶分割,提出一种空间FCM聚类与MRF随机场相结合的三维分割方法。首先,对MRI图像进行空间FCM粗分割,提取病灶粗轮廓。然后,在其基础上进行MRF精分割,并结合病灶三维信息:用相邻切片分割结果对应标号矩阵初始化MRF精分割标号场,同时用该张切片粗分割所得隶属度矩阵对MRF精分割进行参数自适应调整。用该方法与空间FCM、水平集、模糊MRF方法对50例MRI数据进行分割对比实验,得到良、恶性病灶分割重叠率分别为76.4、75.5;相比于空间FCM的68.%、69.5水平集的70.8、72.6以及模糊MRF的72.9、73.6有明显提升。对所有175例MRI数据分割结果进行非监督评价,得到良、恶性病灶区域均匀性均大于0.92;区域内差异性良性病灶92%小于150、恶性病灶98%小于150;区域间差异性良性病灶87%大于0.25、恶性病灶90%大于0.3综上表明,该方法具有较高的分割精度。  相似文献   

19.
目的乳腺癌的精确诊断对于后续治疗具有重要临床意义,组织病理学分析是肿瘤诊断的金标准。卷积神经网络(convolution neural network,CNN)具有良好的局部特征提取能力,但无法有效捕捉细胞组织间的空间关系。为了有效利用这种空间关系,本文提出一种新的结合CNN与图卷积网络(graph convolution network,GCN)的病理图像分类框架,应用于乳腺癌病理图像的辅助诊断。方法首先对病理图像进行卷积及下采样得到一组特征图,然后将特征图上每个像素位置的特征向量表示为1个节点,构建具有空间结构的图,并通过GCN学习图中蕴含的空间结构特征。最后,将基于GCN的空间结构特征与基于CNN的全局特征融合,并同时对整个网络进行优化,实现基于融合特征的病理图像分类。结果本研究在提出框架下进行了3种GCN的比较,其中CNN-sGCN-fusion算法在2015生物成像挑战赛乳腺组织学数据集上获得93.53%±1.80%的准确率,在Databiox乳腺数据集上获得78.47%±5.33%的准确率。结论与传统基于CNN的病理图像分类算法相比,本文提出的结合CNN与GCN的算法有效融合了病理图像的全局特征与空间结构特征,从而提升了分类性能,具有潜在的应用可行性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号