基于相互一致性训练的半监督左心房分割
  24eTNZKd6a8S 2023年12月23日 17 0

Semi-supervised Left Atrium Segmentation with Mutual Consistency Training

会议时间:2023-1-26
会议地点:腾讯会议
关键词:半监督,左心房分割
作者: Yicheng Wu , Minfeng Xu
期刊:MICCAI2022
年份:2022

主要内容

一,摘要:(1)低估了训练中挑战性区域(如小分支或模糊边缘)的重要性.(2)提出了一种MUTUAL CONSISTENCY NETWORK(MCQ-NET)用于从3D MR图像中分割半监督左心房.(3)MC-NE代优于最近六种半监督口左心房分割方法,并在LA数据库上设置了最新的最先进的性能.二,引言:20% LABELED DATAGT100% LABELED DATA10% LABELED DATAIMAGEFIG.1. EXAMPLE MR IMAGE(1ST COLUIST COLUMN), THE UNCERTAINTY OF DEEP MODELS TRAINED WITH10% 16 LABELED DATA (3RD COLUMN) AND ALL LABELED ONSA (2ND COLUMN), 20% LABELABELEDDATADATAND CORRESPONDING GROUND TRU(4TH COLUMN), AND COI TRUTH (5TH COLUMN) ON THE LATABASE渔歌畅晚(1)具有挑战性的区域包含更关键的信息,因为困难的样本可以使训练更有效.(2)我们认为认知不确定性能够评估模型的泛化能力.(3)因此,在本文中,我们提出了一种新的相互一致住模型MC.NAL,见图2),用于从3DMR园像中分割半监督左心房,MC.NG1由一个编码器和两个略有不同的解码器组成,两个输出的差异用于捕获不确定性信息.(4)该模型的贡献包括:(1)探索基于模型的不确定性信息,以强调训练过程中未标记的挑战区域;(2)SHARPENINGFUNCTION)设计了一种新的循环伪标签方案,通过鼓励相互一致性来促进模型的训练;(3)实验表明,所提出的MC-NET在LA数据库上的半监督左心房分割任务中取得了最新的性能.

基于相互一致性训练的半监督左心房分割_数据库


三,方法:

MUTUAL CONSISTENCY NETWORK (MC-NET)LSEGADECODER OAPREDICTION ASOFT PSEUDO LABEL ALCINPUT DATA XGT YENCODER OESOFT PSEUDO LABEL BPREDICTION BDECODER EDBLSEGBSHARPENING FUNCTION:'''''''LCYELED PSEUDO LABEL:P1/TSPL三PREDICTION ASOFT PSEUDO LABEL AP1/T+(1-P)1/TLLLLOTLOSS FUNCTIONS:LE(B-A)LC(A-B)LC-LC(A-B)+LC(B-4)(ALL DATA)LSEGLSEGA+LSEGB(LABELEDDATA)PREDICTION BIT PSEUDO LABEL BSOFT P

基于相互一致性训练的半监督左心房分割_3D_02


3.1模型结构

:认知不确定性的测量有几种有代表性的方法.例如,MONTECARLODOUTJ就是一个流行的例子.给定一个3D输入XECRHAND样本,我们可以用随机DROPOUT执行N个随机正向传递,其中DTOPOUT层散够从原始模型N,这样,深度模型暗出一组概率向量(PANN三1,不确运性口可以用所有子模型预测的统计量的N来近似,例知,相关工作17使用蒙特卡治AR来估计不确定性心为;CUELOGUEHO-N ZI(1)U三N)CSDN@渔歌畅晚UUE COIN其中PCN表示第C个类在第N次中的输出,UC是N个预测的平均值,C是类的数量,不确定性本质上是体素级病.该方法的一个问题是需要进行多次推断,例如在17中每次选代部需要进行与次随机正向传递来估计不确定性,这带.来了更多的计算成本.FBFEAB(FE)FE FO(X),FAAAAAA(FE),CSDN @渔歌物晚其中概率输出PA和PB分别由深度特征FA和FB通过SIGMOID激活函数得到.

基于相互一致性训练的半监督左心房分割_3D_03


3.2循环伪标签

锐化函数定义:E[O,LOSONG渔歌彩晓我们使用锐化函数将概率输出PA和PB转换为软伪标签SPLA和SPLB,P1/TSPLP1/T+(1P)1/TCSDN@渔歌畅晚其中丁是一个常数,用来控制软化品度.软伤标签对训练5的梅正则化有质献,相比通过使用固定调信生成协标签,可以交现软物标签为了消除一些错误标记的训练数据[14]的影响.1DEF SHARPENING(P):2T : 1/ARGS.TEMPERATUREP_SHARPEN : P ** T / (P ** T + (1-P) ** T)34RETURN P_SHARPENSPLA来监督PB,再用SPLB来监督PA,达到相互一致.通过这种方式,两个解码器可以相互学习.LOSS- DICE(PA,Y)+ DICE(PB,Y)+入X(L2(PA,SPLB)+ L2(PB,SPLA))(4)LSEGLCCSDN@渔歌畅晚其中DICE代表DICE损失,12是均方误差MSE提失,Y是GROUNDINUH,入是平衡LSEGFILTB,注京,L是无监督的,用于监督所有的训练数据.

基于相互一致性训练的半监督左心房分割_损失函数_04


四,实验结果:

4.1 结果:

MG10% LABELED DATADTCUA-MTSASSNETGTOURSUA-MTSASSNETGTDTCOURS20% LABELED DATADTCSASSNETGTUA-MTOURS0GUA-MTGTDTCSASSNETOURS

基于相互一致性训练的半监督左心房分割_数据库_05


国3从左到右分别显示了UAMT17,SASSNERG,DTCM,我们的MC.NET在LA数据库上获得的结果以及相应的GROUND IUTH.TABLE 1. COMPARISONS WITH SIX STATE-OF-THE-ART METHODS ON THE LA DATABASE.METRICS#SCANS USEDMETHODARD(%) 95HD(VOXEL) ASD(VELABELED UNLABELEDDICE(%)JACCARD(DVOXELV-NET021.1179.9968.128(10%)5.4814.2686.0316(20%)V-NET3.5176.06091.14V-NET5.7580(ALL)83.8201.52(MICCAF'19)DAP[19]8(10%)723.8081.8915.8171.238(10%)UA-MT [17]7273.4884.2513.84(MICCAI'19)3.368(10%)SASSNET[6](MICCAI'20)77.727287.329.622.55LG-ER-MT 2](MICCAI20)8(10%)7275.1213.293.7785.5412.678(10%)75.7572DUWM[12](MICCAI'20)3.3185.9176.5514.477286.57[7] (AAI'21)8(10%)3.74DTCMC-NET (OURS)722.1878.319.3687.718(10%)DAP[19](MICCAI'19)16(20%)642.7478.7287.899.29UA-MT [17](MICCAI'19)16(20%)6480.212.2688.887.3216(20%)SASSNET[MICCAI20)6489.542.208.2481.24LG-ER-MT [MICCAI'20)16(20%)89.622.0681.317.1664(MICCAI'20)DUWM[12]16(20%)2.0381.3589.657.0464DTC[7](AAI'21)16(20%)2.107.3280.9889.426482.48MC-NET (OURS)16(20%)1.776.006490.34水' SINCE THE RESULTS OF DTC MODEL USING 10% LABELED DATA WITH 90% 1UNLABELED DATAON THE LA DATABASE ASWERE NOT GIVEN, WE CONDUCTED THE EXPERIMENTS ON THECSDN @渔歌

基于相互一致性训练的半监督左心房分割_3D_06


4.2消融实验:

TABLE 2. ABLATION STUDIES OUR PROPOSED MC-NET ON THE LA DATABASE.METRICS# SCANS USEDMETHODLABELED UNLABELED DICE(%) JACCARD(%) 95HD(VOXEL) ASD(VOXEL)74.27V2-NET84.9515.218(10%)4.562222238(10%)85.7975.4114.45V2D-NET3.83V2-NET+SPL86.618(10%)76.6513.393.9376.97V2D-NET+SPL8(10%)4.0586.8414.168(10%)V2-NET+CPL86.6912.6676.743.20728(10%)87.71V2D-NET+CPL2.189.3678.31V2-NET88.146416(20%)14.223.7879.1016(20%)64V2D-NET80.3688.982.257.61V2-NET+SPL16(20%)79.646414.0688.553.58V2D-NET+SPL 16(20%)90.151.8982.156.206489.6616(20%)V2-NET+CPL81.366411.142.86V2D-NET+CPL 16(20%)82.4890.346.001.7764

基于相互一致性训练的半监督左心房分割_3D_07


五,结论:

(1)提出了一种相互一致性网络(MC-NET)用于半监督左心房分割.(2)因此,通过设计的标签方案,我们的模型被鼓励生成一致和低演的预队,以便从这些关键区域情获更多的广义特征来是高模型的训练.(3)所提出的MC-NET实现了LA数据库上最准确的半监督左心房分割性能.

基于相互一致性训练的半监督左心房分割_3D_08



讨论过程

Q1(老师):这篇文章你看了以后觉得有什么可以改进的地方?

A1:可以提高一下伪标签的质量

Q2(老师):可不可以定义一个损失函数让A指导A,B指导B?

A2:不可行,之前做过类似的,自己给自己找错误没有别人找错误的效果要好

总结

可不可以分为两个阶段,第一阶段先用带标签的去训练,训练结束进入第二阶段在把带标签的和不带标签的放进去训练,把损失函数进行修改,再进行训练;在开始就用正确的标签,到了第二步对杂质慢慢加进去,每次加10%然后再训练,这样速度应该会慢一点,但是这样应该可以使得伪标签的质量提高。在前面也可以考虑使用对抗生产网路去进行有指导的学习来提高伪标签的质量。




【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年12月23日 0

暂无评论

推荐阅读
24eTNZKd6a8S