論文の概要: Uncertainty-Supervised Interpretable and Robust Evidential Segmentation
- arxiv url: http://arxiv.org/abs/2509.17098v1
- Date: Sun, 21 Sep 2025 14:31:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.117275
- Title: Uncertainty-Supervised Interpretable and Robust Evidential Segmentation
- Title(参考訳): 不確実性スーパービジョンとロバストな証拠セグメンテーション
- Authors: Yuzhu Li, An Sui, Fuping Wu, Xiahai Zhuang,
- Abstract要約: 不確実性の推定は、信頼性を提供するツールとして、医用画像セグメンテーションにおいて広く研究されている。
従来手法では、不確実性推定の効果的な監督が欠如していた。
本研究では,不確実性の学習を指導する自己教師型アプローチを提案する。
- 参考スコア(独自算出の注目度): 16.64288013782432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty estimation has been widely studied in medical image segmentation as a tool to provide reliability, particularly in deep learning approaches. However, previous methods generally lack effective supervision in uncertainty estimation, leading to low interpretability and robustness of the predictions. In this work, we propose a self-supervised approach to guide the learning of uncertainty. Specifically, we introduce three principles about the relationships between the uncertainty and the image gradients around boundaries and noise. Based on these principles, two uncertainty supervision losses are designed. These losses enhance the alignment between model predictions and human interpretation. Accordingly, we introduce novel quantitative metrics for evaluating the interpretability and robustness of uncertainty. Experimental results demonstrate that compared to state-of-the-art approaches, the proposed method can achieve competitive segmentation performance and superior results in out-of-distribution (OOD) scenarios while significantly improving the interpretability and robustness of uncertainty estimation. Code is available via https://github.com/suiannaius/SURE.
- Abstract(参考訳): 不確実性の推定は、特に深層学習における信頼性を提供するツールとして、医用画像のセグメンテーションにおいて広く研究されている。
しかし、従来の手法では不確実性推定の効果的な監督が欠如しており、予測の解釈可能性や堅牢性は低い。
本研究では,不確実性の学習を指導する自己教師型アプローチを提案する。
具体的には、不確かさと境界と雑音に関する画像勾配の関係に関する3つの原則を紹介する。
これらの原則に基づいて、2つの不確実性監視損失を設計する。
これらの損失は、モデル予測と人間の解釈の整合性を高める。
そこで本研究では,不確実性の解釈可能性とロバスト性を評価するための新しい定量的指標を提案する。
実験結果から,提案手法は最先端手法と比較して競合セグメンテーション性能を向上し,不確実性推定の解釈可能性や堅牢性を大幅に向上させながら,アウト・オブ・ディストリビューション(OOD)シナリオにおいて優れた結果が得られることが示された。
コードはhttps://github.com/suiannaius/SUREから入手できる。
関連論文リスト
- An Analysis of Concept Bottleneck Models: Measuring, Understanding, and Mitigating the Impact of Noisy Annotations [4.72358438230281]
概念ボトルネックモデル(CBM)は、予測を人間の解釈可能な概念に分解することで、解釈可能性を保証する。
しかし、この透明性を実現するためのCBMのトレーニングに使用されるアノテーションは、しばしばうるさくなります。
適度な腐敗でさえ、予測性能、解釈可能性、介入効果を同時に損なう。
論文 参考訳(メタデータ) (2025-05-22T14:06:55Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Gradient-based Uncertainty Attribution for Explainable Bayesian Deep
Learning [38.34033824352067]
ディープラーニングモデルによる予測は、データ摂動、敵攻撃、アウト・オブ・ディストリビューション・インプットの傾向が強い。
本稿では,正確な不確実性定量化を行うための説明可能かつ実用的なベイズ深層学習法を提案する。
論文 参考訳(メタデータ) (2023-04-10T19:14:15Z) - Logit-based Uncertainty Measure in Classification [18.224344440110862]
我々は,ロジット不確実性と呼ばれる分類タスクに対して,新しい,信頼性が高く,不可知な不確実性尺度を導入する。
この新たな不確実性対策は,従来の課題に対する不確実性対策よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-07-06T19:07:16Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Aleatoric Uncertainty Estimation Using a Separate Formulation with
Virtual Residuals [51.71066839337174]
既存の手法では、ターゲット推定における誤差を定量化できるが、過小評価する傾向がある。
本稿では,信号とその不確かさを推定するための新たな分離可能な定式化を提案し,オーバーフィッティングの影響を回避した。
提案手法は信号および不確実性推定のための最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-03T12:11:27Z) - Double-Uncertainty Weighted Method for Semi-supervised Learning [32.484750353853954]
教師-学生モデルに基づく半教師付きセグメンテーションのための二重不確かさ重み付き手法を提案する。
ベイジアンディープラーニングを用いて教師モデルを訓練し,セグメンテーションの不確実性と特徴の不確実性を両立させる。
本手法は,2つの公開医療データセットにおいて,最先端の不確実性に基づく半教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2020-10-19T08:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。