首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   7篇
  免费   3篇
基础医学   6篇
临床医学   1篇
内科学   1篇
外科学   1篇
肿瘤学   1篇
  2022年   1篇
  2021年   6篇
  2020年   1篇
  2019年   2篇
排序方式: 共有10条查询结果,搜索用时 15 毫秒
1
1.
目的:提出一种基于Mask Scoring R-CNN和迁移学习的舌象特征识别方法。方法:首先使用CNN提取特征,使用ResNet-101和特征金字塔网络(FPN)的主干网络,可以从低层次和高层次的网络中提取特征,根据不同比例绘制金字塔特征的级别。接着使用区域生成网络将从主干网络中提取的特征生成候选感兴趣区域(ROI)。最后为每个ROI检测并分割齿痕。结果:在232例样本的测试集上进行测试,F1分数为0.95,准确率为0.93,精确率为0.99,召回率为0.914。结论:该方法能够在小样本舌象数据集上有效识别齿痕特征、准确定位齿痕位置、标定齿痕大小、提取齿痕个数,该方法具有良好的有效性、通用性、泛化性,能够为后续齿痕严重程度分析提供依据。同时为疾病预防、移动医疗保健或从生物信息学角度跟踪疾病进展提供客观、方便的计算机辅助舌诊方法。  相似文献   
2.

Purpose

This work presents our contribution to a data challenge organized by the French Radiology Society during the Journées Francophones de Radiologie in October 2018. This challenge consisted in classifying MR images of the knee with respect to the presence of tears in the knee menisci, on meniscal tear location, and meniscal tear orientation.

Materials and methods

We trained a mask region-based convolutional neural network (R-CNN) to explicitly localize normal and torn menisci, made it more robust with ensemble aggregation, and cascaded it into a shallow ConvNet to classify the orientation of the tear.

Results

Our approach predicted accurately tears in the database provided for the challenge. This strategy yielded a weighted AUC score of 0.906 for all three tasks, ranking first in this challenge.

Conclusion

The extension of the database or the use of 3D data could contribute to further improve the performances especially for non-typical cases of extensively damaged menisci or multiple tears.  相似文献   
3.
胎儿标准丘脑水平横切面是胎儿双顶径与头围的测量切面,而双顶径和头围这两个测量参数对于预测胎儿体重有重要的作用。临床上此切面一直由超声医生手动获取,手动获取的切面质量高度依赖超声医生的临床工作经验,不但耗时,而且容易得到图像质量较差的切面。为了解决手动获取存在的问题,提出一种基于更快速的区域卷积神经网络(faster R-CNN)的胎儿头围超声图像质量控制方法,辅助医生自动、快速和准确地获得标准丘脑水平横切面。首先,与超声专家团队制定评定协议,通过数据增强的方法,构建胎儿头围超声图像数据库;然后,通过faster R-CNN从训练数据中学习提取有识别性的特征,并利用通过联合训练和交替优化,使得区域建议网络(RPN)模块和fast R-CNN模块共享卷积层特征,构建一个完全端到端的卷积神经网络(CNN)对象检测模型,检测关键解剖结构;最后,通过检测的解剖结构结果对丘脑水平切面进行自动评分,根据评分结果进而自动判断是否是标准切面。对所采集的513张超声切面,80%的作为训练数据集,20%为测试数据集。所提出的方法能够准确地定位到丘脑水平横切面的5个解剖结构,5个解剖结构的检测平均准确度达到80.7%,且每张丘脑水平切面的检查时间大约0.27 s。所提出的方法对胎儿头围超声图象进行自动化质量控制是可行的。  相似文献   
4.
针对当前腰椎间盘自动诊断方法存在的准确率偏低的问题,提出一种基于分步目标定位的计算机辅助诊断方法。该方法首先使用Faster R-CNN目标定位网络预处理腰椎间盘影像,去除韧带以及周围噪声区域,获得腰椎间盘的轮廓区域;然后放大定位的间盘轮廓3倍,再次利用Faster R-CNN网络精细化定位病灶区域,从而解决因病灶目标太小而无法准确定位的问题;最后,将病灶区域输入到改进的残差卷积神经网络中以提取高层特征和严重性分级,改进的残差卷积神经网络(ResNet-20)通过建立短路机制以提高分类器的准确率。实验结果表明,相较于传统的诊断方法,该方法将腰椎间盘突出的诊断准确率提升5.1%。  相似文献   
5.
目的运用Faster R-CNN特征计算借助深层CNN架构,分析预标识肝脏肿块超声图像,尝试建立检测器并测试其效能。方法选择肝囊肿及肝癌超声图像为研究对象,收集正常肝脏各切面图像行deep CNN学习,迁移学习后优化预先训练的deep CNN构建更快的R-CNN。将ImageJ软件标识的肿瘤图像作为补丁训练分类器,并通过与基于区域建议的卷积神经网络集成构建检测器,检测器检测样本后自动标识肝脏异常病灶。结果(1)Faster R-CNN较传统检测器检测效率提高;(2)Faster R-CNN预测肝囊肿及肝癌的平均准确率均高于传统HOG-SVM,AlexNet、GoogleNet、ResNet三种CNN预测肝囊肿的准确率差异不显著,而三种方法中ResNet预测肝癌的准确性最佳。deep CNN进行特征转移五次交叉验证后,补丁分类结果中AlexNet、GoogleNet、ResNet预测准确性分别为94.94%、94.14%、98.68%,较传统HOG-SVM分类器准确性87.29%有提高。结论基于deep CNN的Faster R-CNN可高效准确预测肝脏肿瘤超声图像,具有一定的临床及研究价值。  相似文献   
6.
在临床上,分割脑CT图像上的各个脑区并建模,可以更好地观察病变与各器官的位置关系.目前医生主要通过人工勾画的方式进行分割,不仅费时、费力,而且还容易受主观因素影响.提出一种基于数据扩增和迁移学习的Mask R-CNN卷积神经网络算法,可以更快速地在脑CT图像上自动分割出易受脑出血危及的脑区,如小脑、脑干、基底节区和背侧...  相似文献   
7.
胎儿头围是产前超声检查中评价胎儿生长发育最重要的生物特征之一,但手工测量耗时费力且存在操作者的误差.对此,根据超声图像中胎儿头部接近椭圆形状的特征,提出头围测量损失函数.在Mask R-CNN的分割分支后,利用ElliFit算法对分割掩膜进行椭圆拟合,用Ramanujan公式计算拟合椭圆周长作为头围测量值,将头围真实值...  相似文献   
8.
针对当前的研究方法在牙齿全景X光片上提取的信息较为单一,而未曾考虑将牙齿的类别信息与形状位置信息融合提取的问题,提出一种实例分割方法同时实现牙齿识别与分割。主要通过融合跳跃结构和SE(Squeeze and Excitation)模块对Mask R-CNN实例分割模型中的分割分支进行改进,并以牙齿功能与FDI牙位两种类别编码方式,采用400张牙齿全景X光片数据进行实验仿真。实验结果表明改进后的模型相比于其他模型,可以同时有效地进行牙齿分类和分割,实现牙齿类别、形状、位置信息的融合提取,改善了Mask R-CNN实例分割模型在分割分支中语义信息提取不足的问题。  相似文献   
9.
10.
Cervical cancer is a worldwide public health problem with a high rate of illness and mortality among women. In this study, we proposed a novel framework based on Faster RCNN-FPN architecture for the detection of abnormal cervical cells in cytology images from a cancer screening test. We extended the Faster RCNN-FPN model by infusing deformable convolution layers into the feature pyramid network (FPN) to improve scalability. Furthermore, we introduced a global contextual aware module alongside the Region Proposal Network (RPN) to enhance the spatial correlation between the background and the foreground. Extensive experimentations with the proposed deformable and global context aware (DGCA) RCNN were carried out using the cervical image dataset of “Digital Human Body” Vision Challenge from the Alibaba Cloud TianChi Company. Performance evaluation based on the mean average precision (mAP) and receiver operating characteristic (ROC) curve has demonstrated considerable advantages of the proposed framework. Particularly, when combined with tagging of the negative image samples using traditional computer-vision techniques, 6–9% increase in mAP has been achieved. The proposed DGCA-RCNN model has potential to become a clinically useful AI tool for automated detection of cervical cancer cells in whole slide images of Pap smear.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号