首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 875 毫秒
1.
目的 探索神经网络结合显微高光谱成像识别乳腺癌组织的可行性和应用价值。方法 采用显微高光谱成像技术采集乳腺癌组织的图像数据,使用基于神经网络的显微高光谱乳腺癌组织图像分析方法,实现乳腺癌组织的自动分类和区域划分。提出数据预处理方法以提高图像的信噪比,利用神经网络训练图谱信息识别乳腺组织病变区域并突显以利于可视化。结果 基于神经网络的显微高光谱的乳腺组织识别分析方法同时利用了图谱两个方面的特征,获得了比传统彩色病理图像更好的识别结果。结论 基于神经网络的显微高光谱乳腺组织图像分析方法可以提供特征性的样本信息,是传统彩色病理图像的有效补充。在神经网络分析方法的支持下,将显微高光谱成像技术应用于乳腺癌组织的分析具有一定的应用前景。  相似文献   

2.
目的 利用深度学习方法自动提取眼底白内障特征,构建白内障自动分类器,并可视化分析深度网络中间层特征的逐层变换过程。方法 基于临床眼底图像,使用深度卷积神经网络(CNN)从输入数据的原始表示直接学习有用的特征,对比分析CNN自动提取的特征与预定义特征的性能表现。然后利用反卷积神经网络(DN)量化分析CNN各个中间层的特征,进一步研究输入图像中对CNN的预测贡献最大的像素集,探究CNN表征白内障的具体过程。结果 使用深度学习方法构建的分类器在四分类任务中达到0.818 6的平均准确率。与现有的预定义特征集相比,利用深度CNN自动提取的特征集能提供更好的白内障特征表示。CNN中间层特征呈现从低级抽象到高级抽象的分层变换,如梯度变化到边缘,然后到边缘状发散结构的组合,最后到血管和视神经盘信息的高级抽象,这种变换过程与临床检测白内障的诊断标准相吻合。结论 基于深度学习的分类器在性能表现上优于现有分类器。该方法对检测其他眼病也可能具有潜在的应用前景。  相似文献   

3.
目的 针对深度学习在舌象分类中训练数据量大、训练设备要求高、训练时间长等问题,提出一种基于迁移学习的全连接神经网络小样本舌象分类方法。方法 应用经ImageNet海量数据集训练后的卷积Inception_v3网络提取舌象点、线等有效特征,再使用全连接神经网络对特征进行训练分类,将深度学习网络学习到的图像知识迁移到舌象识别任务中。利用舌象数据集进行训练、测试。结果 与典型舌象分类方法K最近邻(KNN)算法、支持向量机(SVM)算法和卷积神经网络(CNN)深度学习方法相比,本实验使用的两种方法(Inception_v3+2NN和Inception_v3+3NN)具有较高的舌象分类识别率,准确率分别达90.30%和93.98%,且样本训练时间明显缩短。结论 与KNN算法、SVM算法和CNN深度学习方法相比,基于迁移学习的全连接神经网络舌象分类方法可有效提高舌象分类的准确率、缩短网络的训练时间。  相似文献   

4.
目的研究基于卷积神经网络的肺结节良恶性分类方法。方法首先对肺部图像数据库联盟(LIDC)中的肺癌CT图像进行分割获得肺结节图像;然后利用卷积神经网络进行特征提取;最后利用Logistic分类器进行模型构建与测试。结果该文所提出方法取得了84.4%的分类结果。结论利用卷积神经网络可以自动提取肺结节特征,辅助医生的临床诊断。  相似文献   

5.
为提升智能辅助驾驶系统对路面附着系数估计的准确性与实时性,研究了一种基于视觉信息的路面识别深度学习算法,实现路面附着系数的预估计。设计压缩卷积机制以降低网络运算参数,采用特征图全局平均替换全连接层以提升网络的拟合性能,并构建路面识别深度卷积神经网络DW-VGG。利用自建路面图像数据集对网络进行训练,测试结果表明,基于提出的多层知识蒸馏技术的DW-VGG网络识别精度较高,分类性能评估指标F1得分为96.57%,并有效降低了网络的运算和内存成本,识别单张图像只需32.06 ms,预测模型只有5.63 M。  相似文献   

6.
目的:探究基于术前增强纹理特征构建模型对评估胰腺导管腺癌(pancreatic ductal adenocarcinoma,PDAC)分化程度的价值。方法:回顾性收集2017年1月—2020年10月66例PDAC患者的病例资料,另外34例来自其他医院的PDAC患者被用于外部验证,根据术后病理结果分为高分化、中-低分化两组,分别记录患者的性别、年龄、肿瘤部位、肿瘤最大径、肿瘤强化程度、血管侵犯情况等临床及常规影像特征,进行单因素回归分析。采用ITK-SNAP软件勾画CT检查动、静脉期图像的感兴趣区(ROI),并提取图像纹理特征。利用单因素分析和二元 Logistic回归筛选独立预测因子并构建CT纹理特征模型,将训练组建立的预测模型直接应用于外部验证组,检验模型的准确度。应用受试者工作特征曲线(ROC)的曲线下面积(AUC)评价预测模型诊断价值。结果:基于动脉期及静脉期分别筛选出1个和2个纹理特征,分别为运行熵(run entropy)、区域百分比(zone percentage)和区域大小不均匀性(size-zone non-uniformity),其成为具有特征性的预测参数并分别构建了预测模型,基于CT动脉期纹理特征模型在训练组和验证组的AUC、灵敏度及特异度分别为0.716、0.581、0.824和0.722、0.600、0.765;基于CT静脉期纹理特征模型在训练组和验证组的AUC、灵敏度及特异度分别为0.895、0.781、0.882和0.873、0.722、0.929。结论:CT增强图像纹理特征在高分化、中-低分化PDAC之间存在差异,给术前评估PDAC恶性程度提供了新的方法。  相似文献   

7.
介绍深度卷积神经网络基本理论,阐述基于深度卷积神经网络的脑部图像视觉特征提取,设计一种适用于脑部疾病图像的分类器,进而实现脑部图像疾病类别特征库构建,为基于脑部图像疾病类别特征库开展临床辅助决策等应用提供可能。  相似文献   

8.
目的 提出一种基于Re-entity新分词方法的条件随机场(CRF)模型,并与双向长短记忆神经网络(BiLSTM)-CRF和Lattice-长短记忆神经网络(LSTM)进行比较。方法 比较了现有实体识别方法和模型后,针对2018年全国知识图谱与语义计算大会(CCKS2018)任务一“电子病历命名实体识别”,提出基于Re-entity的CRF、BiLSTM-CRF、Lattice-LSTM方法,并在不同语料库训练不同参数级别的字符向量集。分别将各方法引入神经网络模型中进行模型性能对比实验,最后分别基于句子级和篇级输入句长进行对比研究。结果 CRF模型在最优特征工程的结果下引入Re-entity方法后性能得到提高,句子级的Lattice-LSTM模型在该任务上取得了89.75%的严格F1-measure,优于CCKS2018任务一的最高结果(89.25%)。结论 基于Re-entity新分词方法的CRF模型可利用中文临床药物知识库有效提高电子病历中药物的识别率,Re-entity方法可改善数据预处理阶段分词导致的错误累加,Lattice结构可以更好地结合字符和词序列的潜在语义信息,同时句子级输入能有效提高神经网络模型的识别准确率。  相似文献   

9.
目的本文结合深度学习特征(DF)和传统图像特征(HCF)特点,利用多分类器融合的方法建立一个乳腺肿瘤分类模型,并 深入评估和分析不同深度学习网络特征的肿瘤分类性能。方法回顾性分析106例乳腺肿瘤患者的头尾位和内外倾斜位投影 的全数字乳腺成像数据。首先从肿瘤区域提取23维HCF(12维形态及11维纹理特征),用t检验进行显著性特征选择;然后分别 从3 个卷积神经网络模型提取不同维度DF,在实验中,3 个不同深度学习网络产生了相应DF,分别是AlexNet,VGG16 和 GoogLeNet;最后结合2个投影数据的DF和HCF,采用多分类器的融合模型对特征进行训练和测试,实验重点分析不同DF在 肿瘤分类上的性能。结果结合DF和HCF建立的分类模型比使用单独HCF的分类模型表现出更好的性能;相比于其它网络框 架,DFAlexNet和HCF的结合表现出更高精度的分类结果。结论结合DF和HCF的特征方法建立一个分类模型,对于良恶性乳腺 肿瘤具有优秀的鉴别能力,且泛化能力更强,能作为临床辅助诊断工具。  相似文献   

10.
目的:探讨基于多参数磁共振成像(magnetic resonance imaging,MRI)影像组学特征的模型预测浸润性乳腺癌人类表皮生长因子受体-2(human epidermal growth factor receptor-2,HER-2)表达状态的价值。方法:回顾性分析南京医科大学第一附属医院2018年1月—2019年12月401例乳腺癌患者的基线期MRI图像及临床资料。使用ITK-SNAP软件在快速反转恢复序列(turbo inversion recovery magnitude,TIRM)、动态对比增强磁共振成像第2期(dynamic-contrast enhanced magnetic resonance imaging phase 2,DCE2)、动态对比增强磁共振成像第 4 期(dynamic-contrast enhanced magnetic resonance imaging phase 4, DCE4)、弥散加权成像(diffusion-weighted imaging,DWI)和表观弥散系数(apparent diffusion coefficient,ADC)的最大肿瘤层面手动勾画二维感兴趣区域(region of interest,ROI),并对所勾画的ROI区域进行特征提取及降维筛选。应用逻辑回归(logistic re- gression,LR)算法建立预测HER-2表达状态的单参数模型、组合模型和多参数模型。果:最终筛选出26个最优特征,其中按权重排序位居首位的特征为DCE2_original_shape_SurfaceVolumeRatio。单参数模型中预测效能最好的是DCE2模型,训练集及测试集的曲线下面积(area under curve,AUC)分别为0.907、0.879;组合模型中联合增强特征的模型比其他未联合增强特征的模型预测效能更好(P均≤ 0.001);多参数模型预测效能最佳(训练集及测试集的AUC值分别为0.932、0.906)。结论:基于多参数影像特征构建的影像组学模型评估浸润性乳腺癌HER-2表达状态有一定的临床价值,其中增强早期特征的预测价值较高。  相似文献   

11.
12.
The science of solving clinical problems by analyzing images generated in clinical practice is known as medical image analysis. The aim is to extract information in an affective and efficient manner for improved clinical diagnosis. The recent advances in the field of biomedical engineering have made medical image analysis one of the top research and development area. One of the reasons for this advancement is the application of machine learning techniques for the analysis of medical images. Deep learning is successfully used as a tool for machine learning, where a neural network is capable of automatically learning features. This is in contrast to those methods where traditionally hand crafted features are used. The selection and calculation of these features is a challenging task. Among deep learning techniques, deep convolutional networks are actively used for the purpose of medical image analysis. This includes application areas such as segmentation, abnormality detection, disease classification, computer aided diagnosis and retrieval. In this study, a comprehensive review of the current state-of-the-art in medical image analysis using deep convolutional networks is presented. The challenges and potential of these techniques are also highlighted.  相似文献   

13.
With the growing use of minimally invasive surgical procedures, endoscopic video archives are growing at a rapid pace. Efficient access to relevant content in such huge multimedia archives require compact and discriminative visual features for indexing and matching. In this paper, we present an effective method to represent images using salient convolutional features. Convolutional kernels from the first layer of a pre-trained convolutional neural network (CNN) are analyzed and clustered into multiple distinct groups, based on their sensitivity to colors and textures. Dominant features detected by each cluster are collected into a single, layout-preserving feature map using a spatial maximal activator pooling (SMAP) approach. A moving window based structured pooling method then captures spatial layout features and global shape information from the aggregated feature map to populate feature histograms. Finally, individual histograms for each cluster are combined into a single comprehensive feature histogram. Clustering convolutional feature space allow extraction of color and texture features of varying strengths. Further, the SMAP approach enable us to select dominant discriminative features. The proposed features are compact and capable of conveniently outperforming several existing features extraction approaches in retrieval and classification tasks on endoscopy images dataset.  相似文献   

14.
目的:研究一种依据MRI生成伪CT的方法,从而减少放疗过程中额外CT的使用,降低患者辐射剂量,提高放疗精准度。方法:提出一种基于3D深度卷积神经网络(DCNN)的预测算法,利用单张图像的解剖特征以及相邻图像层之间的关联信息,从而提高了图像特征提取的准确性。采用U-net网络结构,通过编码部分的卷积层、池化层和解码部分的上采样、卷积层,对MRI和对应的CT进行端到端转换的学习。采集13例患者图像数据,应用留一交叉验证的方法,分别对3D DCNN和2D DCNN的伪CT结果与原始CT进行对照比较。结果:提出的3D DCNN算法的平均绝对误差(MAE)为86 HU,远小于2D DCNN的136 HU。结论:3D DCNN算法能更准确的生成伪CT,明显改善了骨骼、空气与软组织之间的误转化。  相似文献   

15.
目的 稀疏角度CT具有加速数据采集和减少辐射剂量的优点。然而,由于采集信息的减少,使用传统滤波反投影算法(FBP)进行重建得到的图像中伴有严重的条形伪影和噪声。针对这一问题,本文提出基于多尺度小波残差网络(MWResNet)对稀疏角度CT图像进行恢复。方法 本网络中将小波网络与残差块相结合,用以增强网络对图像特征的提取能力和加快网络训练效率。实验中使用真实的螺旋几何CT图像数据“Low-dose CT Grand Challenge”数据集训练网络。通过观察图像表征和计算定量参数的方法对结果进行评估,并与其他现有网络进行比较,包括图像恢复迭代残差卷积网络(IRLNet),残差编码解码卷积神经网络(REDCNN)和FBP卷积神经网络(FBPConvNet)。结果 实验结果表明,本文提出的多尺度小波残差网络优于其余对比方法。结论 本文提出的MWResNet网络能够在保持稀疏角度CT图像边缘细节信息的同时有效抑制噪声和伪影。  相似文献   

16.
将基于深度学习的图像分类方法引入人类蛋白质图谱图像分类中,利用ResNet深度网络构建面向人类蛋白质图谱图像分类的深度卷积神经网络,通过混合模式的蛋白质显微镜图像进行验证。结果表明该方法比其他自动分类法具有更高的准确率和精度,大大节约人力和时间。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号