論文の概要: Confidence Contours: Uncertainty-Aware Annotation for Medical Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2308.07528v2
- Date: Wed, 20 Dec 2023 21:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:31:56.062233
- Title: Confidence Contours: Uncertainty-Aware Annotation for Medical Semantic
Segmentation
- Title(参考訳): 信頼の輪郭:不確かさを意識した医用セマンティックセグメンテーション
- Authors: Andre Ye, Quan Ze Chen, Amy Zhang
- Abstract要約: 本稿では,高信頼度・低信頼度・高信頼度・高信頼度・高信頼度・高信頼度・高信頼度・高信頼度・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼・高信頼
信頼性コンチュールはアノテータの労力を大幅に高めることなく高い代表能力を提供することを示す。
また、汎用セグメンテーションモデルでは、標準特異アノテーションと同じパフォーマンスレベルで信頼度パターンを学習できることがわかった。
- 参考スコア(独自算出の注目度): 9.869558800535255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation modeling is a high-stakes task where understanding
of uncertainty is crucial for addressing visual ambiguity. Prior work has
developed segmentation models utilizing probabilistic or generative mechanisms
to infer uncertainty from labels where annotators draw a singular boundary.
However, as these annotations cannot represent an individual annotator's
uncertainty, models trained on them produce uncertainty maps that are difficult
to interpret. We propose a novel segmentation representation, Confidence
Contours, which uses high- and low-confidence ``contours'' to capture
uncertainty directly, and develop a novel annotation system for collecting
contours. We conduct an evaluation on the Lung Image Dataset Consortium (LIDC)
and a synthetic dataset. From an annotation study with 30 participants, results
show that Confidence Contours provide high representative capacity without
considerably higher annotator effort. We also find that general-purpose
segmentation models can learn Confidence Contours at the same performance level
as standard singular annotations. Finally, from interviews with 5 medical
experts, we find that Confidence Contour maps are more interpretable than
Bayesian maps due to representation of structural uncertainty.
- Abstract(参考訳): 医用画像セグメンテーションモデリングは、視覚的曖昧性に対処するために不確実性を理解することが不可欠である、高い視点の課題である。
先行研究は、アノテータが特異な境界を描くラベルから不確かさを推測するために確率的あるいは生成的メカニズムを利用したセグメンテーションモデルを開発した。
しかし、これらのアノテーションは個々のアノテーションの不確実性を表現できないため、それらに基づいて訓練されたモデルは解釈が難しい不確実性マップを生成する。
本研究では,不確実性を直接捉えるために,高信頼感と低信頼感を用いた新しいセグメンテーション表現である信頼度輪郭を提案し,輪郭を収集するための新しいアノテーションシステムを開発した。
我々はLung Image Dataset Consortium(LIDC)と合成データセットの評価を行う。
30名を対象にした注釈研究から,信頼性コンターはアノテータの努力を著しく高めることなく,高い代表能力を提供することが示された。
また、汎用セグメンテーションモデルは標準特異アノテーションと同じパフォーマンスレベルで信頼度パターンを学習することができる。
最後に、5人の医療専門家とのインタビューから、信頼度コンターマップは構造的不確実性の表現によりベイズ地図よりも解釈可能であることがわかった。
関連論文リスト
- Affinity-Graph-Guided Contractive Learning for Pretext-Free Medical Image Segmentation with Minimal Annotation [55.325956390997]
本稿では,医用画像セグメンテーションのための親和性グラフ誘導半教師付きコントラスト学習フレームワーク(Semi-AGCL)を提案する。
このフレームワークは、まず、ロバストな初期特徴空間を提供する平均パッチエントロピー駆動のパッチ間サンプリング法を設計する。
完全アノテーションセットの10%に過ぎず, 完全注釈付きベースラインの精度にアプローチし, 限界偏差は2.52%に過ぎなかった。
論文 参考訳(メタデータ) (2024-10-14T10:44:47Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - An Ambiguity Measure for Recognizing the Unknowns in Deep Learning [0.0]
深層ニューラルネットワークの学習範囲から, 深部ニューラルネットワークの理解について検討する。
任意のモデルに対する入力のあいまいさを定量化する尺度を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:57:12Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Hierarchical Uncertainty Estimation for Medical Image Segmentation
Networks [1.9564356751775307]
不確実性は、モデルトレーニングに使用される画像(ノイズ)と手動アノテーション(ヒューマンエラーとバイアス)の両方に存在する。
本稿では,複数のレベルで不確かさを推定する簡易かつ効果的な手法を提案する。
U-netのようなディープラーニングセグメンテーションネットワークは,高いセグメンテーション性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-08-16T16:09:23Z) - Trustworthy Medical Segmentation with Uncertainty Estimation [0.7829352305480285]
本稿では,セグメンテーションニューラルネットワークにおける不確実性定量化のための新しいベイズディープラーニングフレームワークを提案する。
我々は磁気共鳴イメージングとCTによる医用画像分割データについて検討した。
複数のベンチマークデータセットに対する実験により,提案するフレームワークは,最先端セグメンテーションモデルと比較して,ノイズや敵攻撃に対してより堅牢であることが示された。
論文 参考訳(メタデータ) (2021-11-10T22:46:05Z) - Uncertainty Quantification in Medical Image Segmentation with
Multi-decoder U-Net [3.961279440272763]
医用画像のセグメンテーションの不確かさを,教師付き学習方式で複数のアノテーションを用いたセグメンテーション性能の測定により評価する。
複数のデコーダを持つU-Netアーキテクチャを提案し、画像表現を同じエンコーダで符号化し、各アノテーションを参照するセグメンテーションを複数のデコーダで推定する。
提案アーキテクチャはエンドツーエンドでトレーニングされ、予測の不確実性推定を改善することができる。
論文 参考訳(メタデータ) (2021-09-15T01:46:29Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Scribble-Supervised Semantic Segmentation by Uncertainty Reduction on
Neural Representation and Self-Supervision on Neural Eigenspace [21.321005898976253]
Scribble-supervised セマンティックセグメンテーションは、最近、高品質のアノテーションのない有望なパフォーマンスで多くの注目を集めています。
この研究は、追加情報やその他の制限なしに直接スクリブルアノテーションによってセマンティックセグメンテーションを達成することを目的とする。
本稿では,神経表現におけるエントロピーの最小化とネットワーク埋め込みランダムウォークによる不確実性低減を含む総合的操作を提案する。
論文 参考訳(メタデータ) (2021-02-19T12:33:57Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。