論文の概要: OOD-SEG: Out-Of-Distribution detection for image SEGmentation with sparse multi-class positive-only annotations
- arxiv url: http://arxiv.org/abs/2411.09553v2
- Date: Sun, 17 Nov 2024 22:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:40.265270
- Title: OOD-SEG: Out-Of-Distribution detection for image SEGmentation with sparse multi-class positive-only annotations
- Title(参考訳): OOD-SEG: スパース多クラス正のアノテーションを用いた画像SEGmentationの外部分布検出
- Authors: Junwen Wang, Zhonghao Wang, Oscar MacCormac, Jonathan Shapey, Tom Vercauteren,
- Abstract要約: 医療・外科画像におけるディープニューラルネットワークはいくつかの課題に直面しており、そのうちの2つはこの問題に対処することを目指している。
まず、医用画像のための完全なピクセルレベルのセグメンテーションラベルを取得するのに時間がかかり、ドメインの専門知識を必要とする。
第二に、典型的なセグメンテーションパイプラインは、配布外ピクセルを検出できず、デプロイ中に急激なアウトプットが発生する傾向がある。
- 参考スコア(独自算出の注目度): 4.9547168429120205
- License:
- Abstract: Despite significant advancements, segmentation based on deep neural networks in medical and surgical imaging faces several challenges, two of which we aim to address in this work. First, acquiring complete pixel-level segmentation labels for medical images is time-consuming and requires domain expertise. Second, typical segmentation pipelines cannot detect out-of-distribution (OOD) pixels, leaving them prone to spurious outputs during deployment. In this work, we propose a novel segmentation approach exploiting OOD detection that learns only from sparsely annotated pixels from multiple positive-only classes. These multi-class positive annotations naturally fall within the in-distribution (ID) set. Unlabelled pixels may contain positive classes but also negative ones, including what is typically referred to as \emph{background} in standard segmentation formulations. Here, we forgo the need for background annotation and consider these together with any other unseen classes as part of the OOD set. Our framework can integrate, at a pixel-level, any OOD detection approaches designed for classification tasks. To address the lack of existing OOD datasets and established evaluation metric for medical image segmentation, we propose a cross-validation strategy that treats held-out labelled classes as OOD. Extensive experiments on both multi-class hyperspectral and RGB surgical imaging datasets demonstrate the robustness and generalisation capability of our proposed framework.
- Abstract(参考訳): 医療・外科画像におけるディープニューラルネットワークに基づくセグメンテーションは,著しい進歩にもかかわらず,いくつかの課題に直面している。
まず、医用画像のための完全なピクセルレベルのセグメンテーションラベルを取得するのに時間がかかり、ドメインの専門知識を必要とする。
第二に、典型的なセグメンテーションパイプラインは、オフ・オブ・ディストリビューション(OOD)ピクセルを検出できず、デプロイ中に出力が急上昇する傾向にある。
本研究では,複数の正のみのクラスから少ないアノテート画素からのみ学習するOOD検出を利用した新しいセグメンテーション手法を提案する。
これらの多クラス正のアノテーションは、自然に分布内(ID)セットに該当する。
アンラベル付き画素は正のクラスを含むが、正のクラスも含み、標準セグメンテーションの定式化では「emph{background}」と呼ばれるものを含む。
ここでは、バックグラウンドアノテーションの必要性を排除し、OODセットの一部として、他の目に見えないクラスと一緒にこれを検討します。
我々のフレームワークは、分類タスク用に設計された任意のOOD検出アプローチをピクセルレベルで統合することができる。
既存のOODデータセットの欠如に対処し,医療画像セグメンテーションのための評価基準を確立するために,OODとして有意なラベル付きクラスを扱うクロスバリデーション戦略を提案する。
マルチクラスハイパースペクトルおよびRGB画像データセットの広汎な実験により,提案フレームワークの堅牢性と一般化能力を示す。
関連論文リスト
- Skip and Skip: Segmenting Medical Images with Prompts [11.997659260758976]
本稿では,イメージレベルラベルを用いてセグメンテーションを促進する2つのU字型2段フレームワークを提案する。
実験により,本フレームワークは,単にピクセルレベルのアノテーションを用いて,ネットワークよりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-06-21T08:14:52Z) - Which Pixel to Annotate: a Label-Efficient Nuclei Segmentation Framework [70.18084425770091]
ディープニューラルネットワークは、H&E染色病理像の核インスタンスセグメンテーションに広く応用されている。
通常、類似したパターンと冗長なパターンを含む核画像のデータセットに全てのピクセルをラベル付けするのは非効率で不要である。
そこで本研究では,アノテートするイメージパッチを数個だけ選択し,選択したサンプルからトレーニングセットを増強し,半教師付きで核分割を実現する,新しいフル核分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-20T14:53:26Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - Attention-Guided Supervised Contrastive Learning for Semantic
Segmentation [16.729068267453897]
画素ごとの予測タスクでは、セグメンテーションのために1つのイメージに複数のラベルが存在する可能性がある。
本研究では,1つの意味的対象を目標として毎回強調する,注意誘導型教師付きコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:01:11Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Uncertainty guided semi-supervised segmentation of retinal layers in OCT
images [4.046207281399144]
セグメンテーションネットワークを訓練する学生・教師のアプローチに基づく,新しい不確実性誘導半教師学習を提案する。
提案するフレームワークは,様々な画像モダリティにまたがるバイオメディカルイメージセグメンテーションに有効である。
論文 参考訳(メタデータ) (2021-03-02T23:14:25Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。