作者Xiangmin Han在论文《Deep Doubly Supervised Transfer Network for Diagnosis of Breast Cancer with Imbalanced Ultrasound Imaging Modalities》中提出了融合了剪切波弹性成像和二维灰阶超声两个模态的监督学习模型。作者提出的双监督迁移学习框架(DDSTN),利用弹性图像辅助灰阶图像。模型由两部分构成:配对的弹性与灰阶两个模态超声图像相结合的网络以及非配对的灰阶超声图像作为单模态的网络。算法流程如下图所示:
和单模态相比,该模型的优势在于:
将从其他模态学习到的“知识”迁移到现有的学习框架中;
非配对的灰阶模态超声图像提供额外的单模态信息;
文章的实验结果表明,作者提出的模型对比单模态深度学习方法在准确度、灵敏度、特异度等均有明显提升。
总结与展望
多模态超声影像分析技术作为医疗多模态影像分析技术的一个分支,是进一步挖掘超声影像病变预测潜力的研究方向。通过融合多种模态超声影像中关于病变的关键信息,可以提升预测的准确性与可靠性。随着精准医疗概念工作的展开与推进以及人工智能技术的发展,基于人工智能的多模态超声影像分析技术也将逐步得到完善并应用到临床筛查中。多模态医疗影像分析技术的发展涉及到各个模态之间的交互、迁移以及对齐,且需要与临床实践紧密结合,面临着以下挑战: 数据集数量:深度学习能取得的主要性能改善,在很大程度上依赖于大样本训练数据集。有限的数据集已成为深度学习方法在医学超声图像分析中进一步应用的瓶颈。目前研究人员最常用的方法之一是进行跨数据集(模态内或模态间)学习,即迁移学习。 数据集标注:另一方面,医学图像数据集的标注是一个耗费时间和人力资源的工作。作者Xiaomeng Li在论文《Self-supervised Feature Learning via Exploiting Multi-modal Data for Retinal Disease Diagnosis》中提出了一种多模态的自监督学习框架。模型利用了未标注图像,通过表征学习自动获得各模态的特征和模态间的互信息,从而节省了图像标注的时间和成本。 多模态融合:目前为止,多模态的深度学习所选用的模态还比较单一,组合比较固定。为了更好地辅助医生诊断,超声-核磁共振、超声-CT等跨模态和多个模态的融合则是需要进一步研究发展的方向。
面对这些挑战,我们将致力于发展完善、可靠、可用的多模态影像分析算法,打通各模态之间的信息交互,实现信息利用最大化。
参考文献
[1] B. P. Yuhas, M. H. Goldstein, and T. J. Sejnowski, “Integration of acoustic and visual speech signals using neural networks,” IEEE Commun. Mag., vol. 27, no. 11, pp. 65–71, Nov. 1989.
[2] 国家卫生和计划生育委员会. 2019-中国卫生和计划生育统计年鉴[M]. 北京: 中国协和医科大学出版社, 2019.
[3] Oeffinger KC, Fontham ET, Etzioni R, et al. American Cancer Society. Breast cancer screening for women at average risk: 2015 guideline update from the American Cancer Society[J]. JAMA, 2015,15:1599-1614.[J].
[4] R. Takahashi and Y. Kajikawa, “Computer-aided diagnosis: A survey with bibliometric analysis,” International Journal of Medical Informatics, vol. 101, pp. 58–67, 2017.
[5] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[J]. Advances in Neural Information Processing Systems, 2012, 25(2): 1097–1105.[J].
[6] CHENG J Z, NI D, CHOU Y H, et al. Computer-Aided Diagnosis with Deep Learning Architecture: Applications to Breast Lesions in US Images and Pulmonary Nodules in CT Scans[J]. Scientific Reports, 2016, 6: 24454.[J].
[7] HAN S, KANG H.-K, JEONG J.-Y, et al. A deep learning framework for supporting the
classification of breast lesions in ultrasound images[J]. Physics in Medicine & Biology, 2017, 62(19): 7714–7728.[J].
[8] SZEGEDY C, LIU W, JIA Y, et al. Going Deeper With Convolutions[C]// The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, Massachusetts, USA: IEEE, 2015.[J].