論文の概要: Label fusion and training methods for reliable representation of
inter-rater uncertainty
- arxiv url: http://arxiv.org/abs/2202.07550v1
- Date: Tue, 15 Feb 2022 16:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 18:35:55.159541
- Title: Label fusion and training methods for reliable representation of
inter-rater uncertainty
- Title(参考訳): 層間不確かさの信頼性表現のためのラベル融合と訓練方法
- Authors: Andreanne Lemay, Charley Gros, Julien Cohen-Adad
- Abstract要約: 複数のレーダからのアノテーションによるディープラーニングネットワークのトレーニングは、モデルの偏見を1人の専門家に緩和する。
異なる専門家のラベルを考慮する様々な方法が存在する。
STAPLE, レートラのセグメンテーションの平均値, トレーニング中に各レートラのセグメンテーションをランダムにサンプリングする3つのラベル融合法を比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical tasks are prone to inter-rater variability due to multiple factors
such as image quality, professional experience and training, or guideline
clarity. Training deep learning networks with annotations from multiple raters
is a common practice that mitigates the model's bias towards a single expert.
Reliable models generating calibrated outputs and reflecting the inter-rater
disagreement are key to the integration of artificial intelligence in clinical
practice. Various methods exist to take into account different expert labels.
We focus on comparing three label fusion methods: STAPLE, average of the
rater's segmentation, and random sampling each rater's segmentation during
training. Each label fusion method is studied using the conventional training
framework or the recently published SoftSeg framework that limits information
loss by treating the segmentation task as a regression. Our results, across 10
data splittings on two public datasets, indicate that SoftSeg models,
regardless of the ground truth fusion method, had better calibration and
preservation of the inter-rater rater variability compared with their
conventional counterparts without impacting the segmentation performance.
Conventional models, i.e., trained with a Dice loss, with binary inputs, and
sigmoid/softmax final activate, were overconfident and underestimated the
uncertainty associated with inter-rater variability. Conversely, fusing labels
by averaging with the SoftSeg framework led to underconfident outputs and
overestimation of the rater disagreement. In terms of segmentation performance,
the best label fusion method was different for the two datasets studied,
indicating this parameter might be task-dependent. However, SoftSeg had
segmentation performance systematically superior or equal to the conventionally
trained models and had the best calibration and preservation of the inter-rater
variability.
- Abstract(参考訳): 医療タスクは、画像品質、プロフェッショナルな経験とトレーニング、ガイドラインの明確さなど、さまざまな要因によって、レート間変動が起こりやすい。
複数のレートラーからのアノテーションでディープラーニングネットワークをトレーニングすることは、モデルの1人の専門家に対するバイアスを軽減する一般的なプラクティスである。
臨床における人工知能の統合の鍵となるのは、校正出力を生成し、レータ間不一致を反映する信頼性のあるモデルである。
異なる専門家のラベルを考慮する様々な方法が存在する。
実験では,ステープル法,パーサのセグメンテーション平均法,トレーニング中の各パーサのセグメンテーションのランダムサンプリング法という3つのラベル融合法を比較した。
各ラベル融合法は、従来のトレーニングフレームワークや、セグメンテーションタスクを回帰として扱うことで情報損失を制限するSoftSegフレームワークを用いて研究される。
2つの公開データセットで10個のデータ分割を行った結果,接地真理融合法に関わらず,ソフトセグメンテーションモデルが従来のデータに比べて,レート間レート変動のキャリブレーションと保存性が向上し,セグメンテーション性能に影響を与えなかった。
従来のモデル、すなわち二進的な入力とシグモイド/ソフトマックスのファイナルアクティベートで訓練されたDice損失は、レーダー間変動に関する不確実性を過信し過小評価していた。
逆に、平均的なラベルをSoftSegフレームワークと融合することで、信頼性の低いアウトプットと利率の不一致の過大評価につながった。
セグメンテーション性能の面では,研究した2つのデータセットでは最良ラベル融合法が異なるため,このパラメータがタスク依存である可能性が示唆された。
しかし、ソフトセグメンテーションの性能は従来の訓練されたモデルよりも体系的に優れていたか、同等であった。
関連論文リスト
- Dynamic Correlation Learning and Regularization for Multi-Label Confidence Calibration [60.95748658638956]
本稿では,多ラベルシナリオにおける信頼度を適切に評価することを目的としたマルチラベル信頼性タスクを提案する。
既存のシングルラベルキャリブレーション手法では、セマンティックな混乱に対処するために欠かせないカテゴリ相関を考慮できない。
本稿では,多粒度セマンティック相関を利用した動的相関学習と正規化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-09T13:26:21Z) - CrossMatch: Enhance Semi-Supervised Medical Image Segmentation with Perturbation Strategies and Knowledge Distillation [7.6057981800052845]
CrossMatchは、ラベル付きデータとラベルなしデータの両方からモデルの学習を改善するために、知識蒸留とデュアル戦略レベルの機能レベルを統合する新しいフレームワークである。
本手法は,ラベル付きデータとラベルなしデータのトレーニングのギャップを効果的に最小化することにより,標準ベンチマークにおける他の最先端技術を大幅に超えている。
論文 参考訳(メタデータ) (2024-05-01T07:16:03Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Cross-head mutual Mean-Teaching for semi-supervised medical image
segmentation [6.738522094694818]
SSMIS(Semi-supervised Medical Image segmentation)は、限られたラベル付きデータと豊富なラベルなしデータを活用することで、大幅な進歩を目撃している。
既存のSOTA(State-of-the-art)手法は、ラベルなしデータのラベルを正確に予測する際の課題に直面する。
強弱データ拡張を組み込んだ新しいクロスヘッド相互学習ネットワーク(CMMT-Net)を提案する。
論文 参考訳(メタデータ) (2023-10-08T09:13:04Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Self-training with dual uncertainty for semi-supervised medical image
segmentation [9.538419502275975]
従来の自己学習手法は、反復学習のための擬似ラベルを生成することによって、ラベル付きデータ不足の問題を部分的に解決することができる。
サンプルレベルと画素レベルの不確実性を加えて,自己学習フレームワークに基づくトレーニングプロセスの安定化を図る。
提案手法は,同じ設定下で両方のデータセットのセグメンテーション性能を向上する。
論文 参考訳(メタデータ) (2023-04-10T07:57:24Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Uncertainty-Guided Mutual Consistency Learning for Semi-Supervised
Medical Image Segmentation [9.745971699005857]
医用画像セグメンテーションのための新しい不確実性誘導相互整合学習フレームワークを提案する。
タスクレベルの正規化によるタスク内一貫性学習と、タスク間の整合性学習を統合して、幾何学的な形状情報を活用する。
本手法は,ラベルのないデータを活用し,既存の半教師付きセグメンテーション法より優れた性能を実現する。
論文 参考訳(メタデータ) (2021-12-05T08:19:41Z) - DMT: Dynamic Mutual Training for Semi-Supervised Learning [69.17919491907296]
自己学習法は通常、低信頼の擬似ラベルをフィルタリングするために単一のモデル予測の信頼性に依存する。
動的相互学習と呼ばれる動的に再重み付けされた損失関数を用いて、2つの異なるモデル間の相互学習を提案する。
実験の結果,DMTは画像分類とセマンティックセグメンテーションの両方において最先端の性能を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-18T03:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。