医工互联

 找回密码
 注册[Register]

手机动态码快速登录

手机号快速登录

微信登录

微信扫一扫,快速登录

QQ登录

只需一步,快速开始

查看: 260|回复: 0
收起左侧

Multi-organ auto-delineation in head-and-neck MRI for radiation therap

[复制链接]

  在线 

发表于 2022-10-14 16:07:11 | 显示全部楼层 |阅读模式 <
Multi-organ auto-delineation in head-and-neck MRI for radiation therapy using regional convolutional neural network
使用区域卷积神经网络的头颈部 MRI 放射治疗中的多器官自动描绘
期刊:Physics in Medicine and Biology
时间:2021年11月14日接收,2022年1月21日发表
Abstract

磁共振成像 (MRI) 可以在放射治疗中对许多疾病部位进行准确,可靠的器官描绘,因为MRI能够提供出色的软组织对比度。手动风险器官划分是劳动密集型和耗时的。本研究旨在开发一种基于深度学习的自动化多器官分割方法,以释放劳动力并加速头颈 (HN) 癌症放射治疗的治疗计划过程。本研究开发了一个新的区域卷积神经网络 (R-cnn) 体系结构,即掩模得分R-CNN。在所提出的模型中,使用深度注意力特征金字塔网络作为主干提取MRI给出的粗略特征,然后使用R-CNN进行特征细化。 最终的分割是通过掩码和掩码评分网络将这些细化的特征图作为输入获得的。 通过将掩码评分机制结合到传统掩码监督中,可以将传统掩码 R-CNN 架构中的分类错误降至最低。 接受外照射放疗的60名HN癌症患者的队列被用于实验验证。 对我们提出的方法进行了五折交叉验证。 脑干、左右耳蜗、左右眼、喉、左右晶状体、下颌骨、视交叉、左右视神经、口腔、左右腮腺、咽、脊髓的Dice相似系数为0.89 ± 0.06, 0.68 ± 0.14/0.68 ± 0.18, 0.89 ± 0.07/0.89 ± 0.05, 0.90 ± 0.07, 0.67 ± 0.18/ 0.67 ± 0.10, 0.82 ± 0.10, 0.61 ± 0.14, 0.67 ± 0.11/0.68+0.11 , 0.85 ± 0.06/ 0.86 ± 0.05、0.80 ± 0.13 和 0.77 ± 0.15。 模型训练完成后,所有的 OAR 都可以在 1 分钟内进行分割。
Keywords:

image segmentation, magnetic resonance imaging, radiation therapy, deep learning
Introduction

放射治疗是头颈部(HN)癌症的常见治疗方法,发生在口腔、咽、喉、唾液腺、鼻旁窦和鼻腔等区域,在美国所有癌症中的发病率约为4%国家(Ratko 等人 2014,Siegel 等人 2020)。一般来说,HN 肿瘤非常接近危及器官 (OAR);因此,预计现代放射治疗方式会出现陡峭的剂量梯度(Lomax et al 2001, Otto 2008, Webb 2015)。在放射治疗计划中,利用靶区的空间信息和OAR描绘来优化和评估剂量分布;因此,目标和 OAR 勾画的准确性会直接影响治疗计划的质量(Aliotta et al 2019, Dai et al )。当前的放射治疗使用 CT 图像进行治疗计划。由于其出色的软组织对比度,MRI 在放射治疗中变得越来越普遍,作为一种额外的成像方式,有助于目标和 OAR 的勾画(Khoo 和 Joon 2006,Chandarana 等 2018)。例如,HN 解剖结构的复杂性给仅使用 CT 图像准确勾画目标和 OAR 带来了困难,而 MRI 的实用性可以提高肿瘤和 OAR 描绘的准确性(Chang et al 2005, Prestwich et al 2012, Metcalfe et al 2013)。
手动轮廓是放射治疗计划工作流程中的当前临床实践(Jonsson et al 2019)。然而,它相当耗时,尤其是对于解剖结构复杂且必须对许多周围 OAR 进行轮廓绘制的 HN 病例(Vorwerk et al 2014)。同时,人工勾画高度依赖医师的知识和专长;因此,经常会有观察者内部和观察者之间的高变异性(Brouwer et al 2012, Vinod et al 2016)。非常需要自动描绘 OAR 的方法,但现有的自动描绘方法仍然有限(van Dijk et al 2020)。目前,已经研究了两种主要类型的方法用于 MRI 中的器官分割。第一种称为基于图谱的方法,其中器官分割是通过将输入图像配准到已由专家注释和验证的图谱图像获得的(Bondiau 等人 2005、Bevilacqua 等人 2010、Wardman 等人 2016)。基于图谱的方法通常是可重复且可靠的,但必须谨慎权衡稳健性和准确性,以实现临床适用的结果(Bondiau 等 2005)。地图集缺乏个案可变性,这不仅源于自然解剖差异,也源于病理因素,这可能会恶化基于atlas的方法的性能(Mlynarski等人,2019年)。在数据库中添加更多图集可以提高性能,但由于无法构建包含所有变体的数据库,它仍然受到限制(Peressutti et al 2016,Van de Velde et al 2016)。 此外,基于图谱的方法对于体积较小的器官通常表现不佳(Teguh et al 2011)。 最后,基于图谱的方法依赖于不同解剖结构之间的配准,其中变形的准确性会极大地影响勾画的准确性(Zhong et al 2010)。 第二种基于机器学习,尤其是深度学习算法的自动分割方法最近得到了研究,并取得了令人鼓舞的初步结果(Sharp etal 2014, Yang etal 2014, Chen etal 2018, Mlynarski etal 2019, Sahiner etal 2019, Tong etal 2019) .传统的机器学习方法,例如随机森林(Damopoulos 等 2019,Dong 等 2019)和支持向量机(Yang 等 2014),以及现代卷积神经网络及其变体(Chen 等 2018,Mlynarski 等 2019,Tong 等 2019, Dai et al 2020)通过从图像中提取抽象和复杂的特征来获得分割,这比基于图集的方法更能适应对象的自然多样性(Meyer et al 2018)。与依赖手工特征的传统机器学习方法相比,基于深度学习的方法可以学习可直接用于表示学习目标的深度特征,成为提高自动器官轮廓性能的一种有前途的方法(Meyer et al 2018, Sahiner 等人 2019,van Dijk 等人 2020)。虽然目前令人鼓舞,但据我们所知,很少有研究在头颈部病例等 MRI 图像上同时分割复杂结构中的多个器官(Mlynarski et al 2019)。
掩码区域卷积神经网络 (Mask R-CNN) 最近被提出作为计算机视觉领域(He etal 2017a) 的新一代图像分割方法。与使用U-net及其变体 (Ronneberger等2015) 的传统图像分割方法相比,Mask R-CNN已被开发用于实例分割 (Chiao等2019),其中单个对象的分类,定位和标记同时完成。U-net的输出是多通道等大小的二进制文件,其中每个通道代表一个分割。虽然R-CNN不直接执行分割,但R-CNN用于通过边界框预测每个器官的位置。**R-CNN的输出是两个方面: 一个是表示器官边界框索引的向量,另一个是表示边界框内器官类别的向量。**由于其卓越的性能,Mask R-CNN已被研究用于医学图像分割,并在肿瘤 (Chiao等2019,Zhang等2019,Lei等2020c) 和器官 (Liu等2018,Lei等2020e) 分割CT和MRI图像,等等。Mask R-CNN引入了一种简单而灵活的方法来提高感兴趣区域 (ROI) 定位的准确性,并降低对定位精度的依赖性 (He etal 2017b)。在Mask R-CNN 中,实例掩码的分数是由应用于提议特征的分类器预测的,其中掩码的质量是使用分类置信度来衡量的。 分类置信度和掩码质量并不总是相关的。 例如,可能存在较高的掩码分数但较差的掩码质量。 因此,当同时对多个器官进行分类时,mask R-CNN 容易出现伪影,因为掩模质量并不总是与标签准确度很好地相关(Lei et al 2020a, 2020b, 2020d, Harms et al 2021)。
在这项研究中,我们实现了一个R-CNN体系结构,即Mask scoring R-CNN,这是在计算机视觉领域引入的Mask R-CNN
的一种变体,用于MRI中的多器官自动描绘。在mask scoring r-cnn中,通过独立的可训练mask评分网络建立了mask质量与区域等级之间的相关性。与原始的mask scoring r-cnn架构相比,在此,深度关注特征金字塔网络被用作从输入MRI中提取粗略特征的主干, 然后使用R-CNN对粗略的特征图进行细化。最终的分割是通过mask和mask scoring networks获得的,这些网络将这些细化的特征图作为输入。通过将掩码评分机制结合到传统掩码监督中,可以将传统掩码 R-CNN 架构中的分类错误降至最低。来自 MRI 的手动轮廓被用作ground truth轮廓来评估所提出方法的性能。所提出的方法旨在为 HN 放射治疗中快速和准确的 OAR 轮廓提供解决方案。
Materials and methods

Method overview

工作流程的模式如图1所示。该模型由一些主要步骤组成。在第一步中,使用主干从MRI图像patch中提取粗特征映射,跟着区域建议网络(RPN)计算感兴趣区域(ROI)候选。在第二步中,通过这些ROI候选对象(ROI Alignment)来裁剪粗特征图,然后通过注意门控(AG)进行信息性突出显示。第三步,利用R-CNN得到细化后的特征图;同时,提取每个器官的ROI。在第四步中,将掩模网络应用于每个器官的ROI裁剪的细化特征图上,计算初始分割。在最后一步,通过加权平均和融合初始分割得到最终分割,初始分割是根据掩码评分网络提供的掩膜评分得到的。通过成对的MRI和轮廓(ground truth),模型在各种损失函数的监督下进行训练:主干和RPN的ROI损失、R-CNN的ROI损失、分割损失和掩模评分损失。一旦通过训练获得模型的最优参数,给定MRI的OAR轮廓会在一分钟内描绘好。下一节将讨论每个组件的详细信息。
171002qtfipqn1uen0q4fi.png

Backbone

特征金字塔网络 (FPN)(Lin etal 2017) 体系结构被用作主干,如图2所示。已经提出了FPN来收集金字塔表示,这些表示是不同规模的识别系统中的基本组成部分,以提高基于深度学习的目标检测算法的性能。本研究中的FPN由两个主要路径组成: 编码路径和解码路径。编码路径是由一系列卷积运算构造的,该卷积运算以多个尺度计算分层特征图,而解码路径是由反卷积组成的。在解码路径中,较高的金字塔级别在空间上较粗,但在语义上较强。解码路径中的那些特征通过横向连接得到增强,横向连接结合了具有相同空间分辨率的编码和解码路径中的特征图。为了监督骨干,我们以前的工作 (Lei etal 2019) 中引入的二进制交叉熵 (BCE) 被用作损失函数。在这项工作中,骨干网的损耗是根据骨干网最后一层的输出的预测轮廓和ground truth计算的。
171003s70wnxu1kz0nhk9k.png

RPN and R-CNN

如图 3 所示,在我们的模型中,RPN(图 3(a))和 R-CNN(图 3(b))非常相似。 RPN 最初在 Faster R-CNN 中构建为一个完全卷积网络,能够同时预测每个位置的对象边界和分数(Ren etal 2015)。 R-CNN 最初旨在通过在每个 ROI 上独立应用卷积网络来提高目标检测的效率(Girshick et al 2014)。==在我们的模型中,通过从主干输出中获取粗略的特征图,RPN 预测所有 OAR 的粗略位置。特别是,RPN 估计所有 ROI 的二元类并预测它们相应的中心和边界。如图 3 所示,RPN 由锚分类和锚回归两条路径构成,它们具有相同的组件,包括一系列卷积操作和一个全连接层。 然后通过结合锚分类和回归子网络的输出的提议层来预测每个 ROI 候选框最终位置和类别。假设RPN预测n_{anchors}个ROI候选,对于每个粗略的ROI,二分类可以用 Ci ∈ R2×n_{anchors} 表示,其中心 (x_{c}, y_{c}, z_{c} )和边界(Δw,Δh, Δd)可以用 Bi ∈R6×n_{anchors}表示。为了监督RPN,使用Ci的分类损失和Bi的回归损失,如以下 2.5 节中的等式(1)所定义的。一旦通过 RPN 预测了粗略的 ROI,来自主干的粗略特征图通过 Bi∈R6×n_{anchors}被裁剪在粗略的 ROI 中,并通过 ROI Align重新缩放以共享相同的大小,==这对于馈入以下 R-CNN 头部是统一的。如图 3 所示,R-CNN 具有与 RPN 相似的网络架构,但具有不同的可学习参数。由于第一步 RPN 从无用的背景区域中识别出粗略的 ROI,因此 R-CNN 有望进一步调整这些粗略 ROI 的位置,并对这些 ROI 进行分类。因此,R-CNN 的输出可以被识别为精细的 ROI。使用与 RPN 类似的损失来监督 R-CNN。
171003cz87n7nc9rjw3oro.png

Mask scoring and mask

mask head用于分割精细 ROI 内轮廓的二进制掩膜。 mask head 由几个卷积层实现,如图 4 所示。分割损失是 BCE 损失,用于监督 mask head。该损失在以下 2.5 节的等式 (5) 中介绍。在 maskR-CNN 中提高最终分割精度的关键是预测 ROI 的类别应该与器官分割相关。然而,在传统的 maskR-CNN 中经常发生错误分类。为了防止这种错误分类,在这项工作中,我们使用了一个 mask scoring head 来建立 R-CNN 的输出和 mask head 的输出之间的相关性,并利用 mask head 的输出来进一步指导R-CNN的分类结果。我们将 Smask 定义为分割二元掩码的得分,其中理想的 Smask 等于分割二元掩码与对应的ground truth掩码之间的交集(IoU)。理想的 Smask 应该只在分割掩码与 ground truth 类匹配时取正值,并且对于所有其他类应该为零,因为掩码只能属于一个类。这就需要mask scoring head很好地执行两项任务: 结构分类和mask回归。使用单个,两个分量的目标函数来训练网络以执行这两个任务,并且可以表示为Smask=Scls · SIoU,其中Scls是分类得分,SIoU是回归 (IoU) 得分。Scls的目标是对每种ROI类型进行分类,即当前分割结构是感兴趣结构的可能性。由于前面的R-CNN是专为分类而设计的,因此每个ROI都具有预定的分类分数,该分数可以直接馈送到mask scoring(MS) 子网。这种直接联系可以更好地增强训练过程中mask质量和分类之间的相关性。SIoU由完全连接的层预测,该层由预测的SIoU与ground truth SIoU之间的sigmoid交叉熵监督。mask scoring head的输出是一个向量,其长度与类的数量相匹配。监督mask scoring head的损失在以下部分2.5中的等式 (6) 中引入。
如图 4(a) 所示,掩码网络由三个卷积运算层和一个卷积加 softmax 层组成。 每个卷积操作的步幅为 1 × 1 × 1。以来自 R-CNN 的细化特征图作为输入,掩码网络为每个 ROI 预测相应的二进制掩码。 掩码评分(图 4(b))由五个卷积运算层、一个全连接层和一个 sigmoid 层构成。 掩码评分由掩码评分网络预测,将每个 ROI 的细化特征图和二进制掩码作为输入。掩码分数(mask scoring network的输出)是一个长度等于 ROI 类数的向量。 理想情况下,掩码分数应该是预测的二元掩码与其对应的真实掩码之间的并集交集(IoU),并且可以很好地将掩码分类到适当的类别并回归前景对象类别的分数。 实际上,很难通过使用一个单一的目标函数来完成这两项任务。== 在本研究中,为简单起见,我们将掩码分类和 IoU 回归这两个任务分开。 掩码评分网络旨在主要关注 IoU 回归任务。 对于掩码分类,我们直接从 R-CNN 输出中获取结果。==
171004qc5569bdbsakiv9c.png

Loss functions and model training

如图 1 所示,模型是在五种损失函数的监督下训练的。 第一个损失函数是上面 2.2 节中讨论的 BCE 损失。 第二个损失函数可以表示为ROI loss 1,它是一个前景/背景损失Lrpn,可以定义为
171005q6d4z3geidm31bd3.png

其中,IoU是并集的交集,Iroi表示一个器官的ground truth ROI,ˆIroi是预测的ROI,(x_{Ci}, y_{Ci}, z_{Ci})和( ˆx_{Ci}, yˆ_{Ci} , zˆ_{Ci})分别是ground truth的中心坐标和预测的 ROI, wi, hi 和 di 是ground truth ROI 沿 x、y 和 z 方向的维度,并且 ^ wi, ^ hi , ^ di 是预测 ROI 的维度。
第三种损失函数是 ROI loss 2,其定义与 ROI loss 1 相同(方程(1)-(4))。 不同之处在于,ROI loss 2 应用于每个器官,而不是 ROI loss 1 中的虚拟类别(虚拟类别是什么意思)。
第四种损失函数称为分割损失。分割损失被定义为二元交叉熵:
171005t619x11m5c5xwg1f.png

其中,Iiseg 和ˆIiseg 分别是ground truth和预测的二进制掩码(分割)。
最后一种损失函数是mask scoring loss,即 IoU loss。 掩码评分损失用于监督掩码分数的预测,以二进制掩码和特征图为输入。 掩码评分损失可以表示为:
171006lw28v1nan4u2v4vn.png

其中IoU和^IoU分别代表ground truth IoU和预测的IoU。
Image data acquisition, implementation and experimental setting

对接受放射治疗的60例癌症患者进行了回顾性研究。这些病人都在我们科接受治疗。每个数据集包括一组MRI和一组多器官轮廓。MRI由西门子Aera 1.5 T扫描仪获得作为T1加权图。为了验证我们提出的方法,使用批准用于临床的商业医学图像处理软件 (VelocityAI 3.2.1,Varian medical Systems,加利福尼亚州帕洛阿尔托),将MRI和轮廓图像重新采样为0.9766mm×0.9766 mm× 1.0mm的统一体素大小。手动轮廓首先由一位初级放射肿瘤学家制作,然后由我们诊所的一位高级放射肿瘤学家进行验证和编辑,并用作研究中的ground truth。我们提出的方法是使用 Python 3.6.8 和 Tensorflow 1.8.0 实现的。包括 Pydicom、NumPy 和 Batchgenerator 在内的工具箱也分别用于读/写 DICOM 文件、随机数生成和线性代数以及数据增强。该模型使用 Adam 优化器进行了训练,学习率为 2e-4,持续 400 个 epoch,batch 大小设置为 20。对于所有实验,进行了五次交叉验证。
此外,为了展示所提出的掩码评分机制的优势,我们使用相同的内部收集数据集对所提出的、基于传统 maskR-CNN 和基于 U-net 的方法进行了所有实验。 这里,在 maskR-CNN 和提出的方法中使用了基于patch的方法。 patch大小为 128 × 128 × 64,两个相邻块之间的重叠为 112 × 112 × 48(步长为16)。最终的分割是通过对所有patch中的片段进行平均得到的。 边界框分别设置为 64 × 64 × 32、32 × 32 × 16 和 16 × 16 × 8。 这些边界框的步幅分别设置为 32 × 32 × 16、16 × 16 × 8 和 8 × 8 × 4。 对于 U-net,输入图像大小通过集中裁剪和填充固定为 256 × 256 × 256。
Results

Overall performance

图 5 显示了一位代表性患者的结果。 五个轴向切片从上到下分别按行显示。 最左边的两列分别是原始 MRI 和ground truth图像。 第三、第四和第五列分别显示了我们提出的,基于 maskR-CNN 和基于 U-net 的方法的预测分割。 定性研究这些图像,我们可以看到我们提出的方法和其他两种方法相比,在主要器官,包括脑干、视交叉、左/右耳蜗、左/右眼、下颌骨、左/右晶状体、左 /右视神经、口腔、左/右腮腺和脊髓的分割上和ground truth差异更小。
171006iz3z6kzmvq200wv3.png

Fig.5 通过我们提出的方法和基于 maskR-CNN 的算法实现的分割的说明性示例。
Quantitative results

为了定量证明我们提出的方法的性能,计算了常用指标(Dai et al 2021a),包括 Dice 相似系数(DSC)、95% Hausdorffdistance(HD95)、平均表面距离(MSD)和剩余均方距离(RMS)。该方法的消融研究是通过比较该方法、没有掩模分数子网络的模型(MaskR-CNN方法)和没有AG的模型(No-AG方法)进行的。结果总结在表 1 中,其中列出了每个器官的这些指标的平均值和标准偏差。我们提出的方法在 17 个器官上实现了 0.78 的平均 DSC 值,优于基于 maskR-CNN 的方法(meanDSC 为 0.75)和 ​​No-AG 方法(meanDSC 为 0.73)。我们还对所有指标进行了配对学生 t 检验,以分析我们提出的方法改进的统计显著性。结果总结在表2中。
Table1. 所提出的 maskR-CNN 和 No-AG 方法取得的总体定量结果。
171007yq19834o830ox688.png

Table2. 分别对所提出的方法和传统的 maskR-CNN 以及所提出的和 No-AG 方法之间的统计比较。
171007m3huhu223396gaxn.png

为了进一步演示我们提出的方法,我们实现了几种先进的基于深度学习的多器官分割方法,包括nnU-Net (Isensee etal 2021) 、AnatomyNet (朱etal 2019) 和U-Faster-RCNN (Lei etal 2020e)。使用我们提出的方法和先进的算法进行了相同的验证实验。表3显示了通过这些方法为每个感兴趣的器官获得的定量DSC值。我们还使用配对学生t检验进行了统计分析。如表3所示,我们可以看到,与那些竞争方法相比,就DSC而言,我们提出的方法对所有器官都实现了统计学上显着的改善 (p<0.05)。
Table3. 所提出的 nnU-Net、AnatomyNet 和 U-Faster-RCNN 方法的Dice相似系数 (DSC) 比较。
171008lcuc62vv4b6zz6m9.png

Discussions and Conclusions

危险器官的勾画是放射治疗计划中必不可少的基本步骤。 所提出的方法,即mask scoring R-CNN,为自动描绘提供了一种解决方案,有望加速轮廓绘制过程并在不降低轮廓质量的情况下释放劳动力。 通过将 maskR-CNN 框架集成到分割任务中,我们的方法可以避免从 MRI 背景区域学习到的无用特征的影响。 通过将掩码评分子网络集成到 maskR-CNN 框架中,我们的方法可以减少这种多 OAR 分割任务的错误分类问题。 实验结果(图 5 和表 1)表明,与强大的竞争对手 maskR-CNN 相比,我们提出的方法取得了更好的性能。MaskR-CNN 已被证明是一种有效的实例分割方法(He et al 2017a)。 与广泛研究的医学图像分割算法 U-net (Ronneberger et al 2015) 相比,maskR-CNN 在肿瘤和多器官分割方面取得了可喜的结果 (Liu etal 2018, Chiao etal 2019, Zhang etal 2019, Lei et al 2020e)。 我们的实验结果(图 5 和表 1)也表明 maskR-CNN 比基于 U-net 的方法具有更高的准确度。 基于 maskR-CNN 的基本思想,我们提出的方法旨在通过评分机制最小化 mask score 和 mask 质量之间的偏差。量化表1中列出的结果表明,我们提出的方法略优于maskR-CNN。例如,平均DSC增加了0.01 - 0.07。然而,统计结果 (表2) 表明,我们提出的方法比基于maskr-cnn的方法在这些高危器官患者中的大多数方面有显著的改进。从表2中列出的p值中,我们可以看到,我们提出的方法对所有器官的DSC都实现了统计学上显著的改善 (p <0.05),并且在其他指标中只有很少的p值大于0.05。对于其他质保中这些p值大于0.05的,得出这样的结论是不安全的,即我们提出的方法在这些器官 (如左眼/右眼) 中实现了显著的改进,这是由于用于评估分割性能的单个度量的局限性 (Taha andHanbury2015)。特别是,对于包括脑干、左/右耳蜗、喉、下颌骨、视交叉、口腔、左/右腮腺、咽和脊髓在内的器官,我们提出的方法比传统的mask R-CNN方法在资格指标中都取得了显著(p < 0.05)的改善。即使我们提出的mask scoring R-CNN 方法提供了改进,一些器官如左/右耳蜗、左/右晶状体、视交叉和左/右视神经的 DSC 还是相对较低。这些器官具有挑战性,不仅因为它们在 CT 图像中的对比度低,而且它们的体积很小。 只有几个像素的差异对于这些结构的影响可能相对较大,这可能导致低 DSC。 虽然必须进行进一步的研究以提高分割精度,但另一个可能的原因可能是这些器官的手动轮廓(ground truth)的变化,这些器官的体积非常小。通过消融研究(表 1 和表 2),我们可以看到,通过添加 AG 和掩码得分子网络,所提出的方法取得了显著的改进。 使用AG 的优点在于抑制输入图像中的不相关区域并突出显示对分割特定器官有用的显著特征,而使用掩模分数子网络的优点是它可以在分割形状和器官类别之间建立关系,即 有助于区分小器官并降低错误分类的风险。
我们研究的一个限制是手动轮廓被认为是训练和评估我们提出的方法的ground truth。如上所述,不确定性总是存在于手动轮廓中。换句话说,ground truth可能不是“真正的”ground truth。然而,事实是由两位经验丰富的放射肿瘤学家达成共识。因此,在我们的研究中,不确定性被最小化了。然而,由于不确定性仍然存在,未来的研究必须进行,以进一步减少不确定性。调查这种不确定性的一种可能方法是使用标准体模。这种类型的模型研究对于传统的分割方法(例如基于图谱的方法)可能非常有用。然而,对于基于深度学习的方法,标准模型的解剖变化不足以训练一个可用的模型。可以应用几种其他可能的解决方案。第一个途径是在同一指导下从一大群医生的共识中收集轮廓,以减少观察者间差异。另一种方法是建立一个大型基准数据库来训练模型。将更鼓舞人心的、明确的不确定性公式纳入模型本身可能是应对不确定性挑战的另一种方法(Kendall 和 Gal 2017)。需要进行仔细调查以验证这些途径,这可以指导我们未来的研究。
总之,在本研究中,一种基于深度学习的 HNMRI 多器官分割方法已经得到实施和验证。 所提出的方法为自动化 OAR 勾画提供了一种战略解决方案,该解决方案可以集成到日常临床工作流程中,从而将劳动力从放射治疗计划中繁琐的手动勾画中解脱出来。

来源:https://blog.csdn.net/Acmer_future_victor/article/details/124188008
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复

使用道具 举报

提醒:禁止复制他人回复等『恶意灌水』行为,违者重罚!
您需要登录后才可以回帖 登录 | 注册[Register] 手机动态码快速登录 微信登录

本版积分规则

发布主题 快速回复 收藏帖子 返回列表 客服中心 搜索
简体中文 繁體中文 English 한국 사람 日本語 Deutsch русский بالعربية TÜRKÇE português คนไทย french

QQ|RSS订阅|小黑屋|处罚记录|手机版|联系我们|Archiver|医工互联 |粤ICP备2021178090号 |网站地图

GMT+8, 2024-9-20 05:27 , Processed in 0.307725 second(s), 61 queries .

Powered by Discuz!

Copyright © 2001-2023, Discuz! Team.

快速回复 返回顶部 返回列表