論文の概要: Segment Together: A Versatile Paradigm for Semi-Supervised Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2311.11686v1
- Date: Mon, 20 Nov 2023 11:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:02:22.875024
- Title: Segment Together: A Versatile Paradigm for Semi-Supervised Medical Image
Segmentation
- Title(参考訳): Segment Together:半スーパービジョンの医療画像セグメンテーションのためのVersatile Paradigm
- Authors: Qingjie Zeng, Yutong Xie, Zilin Lu, Mengkang Lu, Yicheng Wu and Yong
Xia
- Abstract要約: 医用画像セグメンテーションのための強力なディープラーニングモデルをトレーニングする上で、不足は大きな障害となっている。
textbfVersatile textbfSemi-supervised framework を導入する。
- 参考スコア(独自算出の注目度): 17.69933345468061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Annotation scarcity has become a major obstacle for training powerful
deep-learning models for medical image segmentation, restricting their
deployment in clinical scenarios. To address it, semi-supervised learning by
exploiting abundant unlabeled data is highly desirable to boost the model
training. However, most existing works still focus on limited medical tasks and
underestimate the potential of learning across diverse tasks and multiple
datasets. Therefore, in this paper, we introduce a \textbf{Ver}satile
\textbf{Semi}-supervised framework (VerSemi) to point out a new perspective
that integrates various tasks into a unified model with a broad label space, to
exploit more unlabeled data for semi-supervised medical image segmentation.
Specifically, we introduce a dynamic task-prompted design to segment various
targets from different datasets. Next, this unified model is used to identify
the foreground regions from all labeled data, to capture cross-dataset
semantics. Particularly, we create a synthetic task with a cutmix strategy to
augment foreground targets within the expanded label space. To effectively
utilize unlabeled data, we introduce a consistency constraint. This involves
aligning aggregated predictions from various tasks with those from the
synthetic task, further guiding the model in accurately segmenting foreground
regions during training. We evaluated our VerSemi model on four public
benchmarking datasets. Extensive experiments demonstrated that VerSemi can
consistently outperform the second-best method by a large margin (e.g., an
average 2.69\% Dice gain on four datasets), setting new SOTA performance for
semi-supervised medical image segmentation. The code will be released.
- Abstract(参考訳): アノテーション不足は、医療画像セグメンテーションのための強力なディープラーニングモデルをトレーニングするための大きな障害となり、臨床シナリオへの展開を制限する。
これを解決するために、豊富なラベルのないデータを活用する半教師付き学習は、モデルトレーニングを促進するために非常に望ましい。
しかし、既存の作品の多くは依然として限られた医療タスクに重点を置いており、様々なタスクや複数のデータセットで学習する可能性を過小評価している。
そこで本稿では,様々なタスクを広いラベル空間を持つ統一モデルに統合し,半教師付き医用画像セグメンテーションのためのラベルなしデータを活用する新しい視点を指摘するために, \textbf{ver}satile \textbf{semi}-supervised framework (versemi)を提案する。
具体的には、異なるデータセットから様々なターゲットを分割する動的タスクプロンプト設計を導入する。
次に、この統一モデルを使用して、ラベル付きデータから前景領域を識別し、データセット間のセマンティクスをキャプチャする。
特に,拡張ラベル空間内の前景目標を拡大するためのカットミックス戦略を用いた合成タスクを作成する。
ラベルなしデータを有効に活用するために,一貫性制約を導入する。
これは、様々なタスクからの集約された予測と合成タスクからの予測とを一致させ、トレーニング中の前景領域を正確に区分するモデルをさらに誘導する。
VerSemiモデルを4つの公開ベンチマークデータセットで評価した。
広範囲な実験により、VerSemiは、大きなマージン(例:4つのデータセットで平均2.69\%のDiceゲイン)で第2のベストメソッドを一貫して上回り、半教師付き医療画像セグメンテーションのための新しいSOTAパフォーマンスを設定できた。
コードはリリースされます。
関連論文リスト
- Pseudo Label-Guided Data Fusion and Output Consistency for
Semi-Supervised Medical Image Segmentation [9.93871075239635]
より少ないアノテーションで医用画像のセグメンテーションを行うための平均教師ネットワーク上に構築されたPLGDFフレームワークを提案する。
本稿では,ラベル付きデータとラベルなしデータを組み合わせてデータセットを効果的に拡張する,新しい擬似ラベル利用方式を提案する。
本フレームワークは,最先端の6つの半教師あり学習手法と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2023-11-17T06:36:43Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - Uncertainty-aware multi-view co-training for semi-supervised medical
image segmentation and domain adaptation [35.33425093398756]
ラベルのないデータは、注釈付きデータよりもはるかに簡単に取得できる。
医用画像セグメンテーションのための不確実性を考慮したマルチビュー協調トレーニングを提案する。
我々のフレームワークは、ラベルのないデータを効率的に活用してパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-28T22:04:54Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Semi-supervised few-shot learning for medical image segmentation [21.349705243254423]
大規模な注釈付きデータセットの必要性を緩和する最近の試みは、数ショットの学習パラダイムの下でトレーニング戦略を開発した。
セマンティックセグメンテーションのための新しい数発の学習フレームワークを提案し,各エピソードでラベルのない画像も利用できるようにした。
エピソードトレーニングにおけるラベルなしのサロゲートタスクを含めると、より強力な特徴表現がもたらされることを示す。
論文 参考訳(メタデータ) (2020-03-18T20:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。