論文の概要: Deep Mutual Learning among Partially Labeled Datasets for Multi-Organ Segmentation
- arxiv url: http://arxiv.org/abs/2407.12611v1
- Date: Wed, 17 Jul 2024 14:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 16:45:33.238695
- Title: Deep Mutual Learning among Partially Labeled Datasets for Multi-Organ Segmentation
- Title(参考訳): 多言語セグメンテーションのための部分ラベル付きデータセット間の深層相互学習
- Authors: Xiaoyu Liu, Linhao Qu, Ziyue Xie, Yonghong Shi, Zhijian Song,
- Abstract要約: 本稿では,相互学習に基づく2段階多臓器分割手法を提案する。
第1段階では、各部分組織セグメンテーションモデルは、異なるデータセットから重複しない臓器ラベルを利用する。
第2段階では、各全組織セグメンテーションモデルは、擬似ラベル付き完全ラベル付きデータセットによって管理される。
- 参考スコア(独自算出の注目度): 9.240202592825735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of labeling multiple organs for segmentation is a complex and time-consuming process, resulting in a scarcity of comprehensively labeled multi-organ datasets while the emergence of numerous partially labeled datasets. Current methods are inadequate in effectively utilizing the supervised information available from these datasets, thereby impeding the progress in improving the segmentation accuracy. This paper proposes a two-stage multi-organ segmentation method based on mutual learning, aiming to improve multi-organ segmentation performance by complementing information among partially labeled datasets. In the first stage, each partial-organ segmentation model utilizes the non-overlapping organ labels from different datasets and the distinct organ features extracted by different models, introducing additional mutual difference learning to generate higher quality pseudo labels for unlabeled organs. In the second stage, each full-organ segmentation model is supervised by fully labeled datasets with pseudo labels and leverages true labels from other datasets, while dynamically sharing accurate features across different models, introducing additional mutual similarity learning to enhance multi-organ segmentation performance. Extensive experiments were conducted on nine datasets that included the head and neck, chest, abdomen, and pelvis. The results indicate that our method has achieved SOTA performance in segmentation tasks that rely on partial labels, and the ablation studies have thoroughly confirmed the efficacy of the mutual learning mechanism.
- Abstract(参考訳): セグメンテーションのために複数の臓器をラベル付けする作業は複雑で時間を要するプロセスであり、結果として、多数の部分的にラベル付けされたデータセットが出現している間に、包括的にラベル付けされた複数の臓器データセットが不足する。
現在の手法では,これらのデータセットから得られる教師付き情報を効果的に活用できないため,セグメント化精度の向上が困難である。
本稿では,相互学習に基づく2段階の多臓器セグメンテーション手法を提案し,部分ラベル付きデータセット間の情報補完による多臓器セグメンテーション性能の向上を目指す。
第1段階では、各部分臓器分割モデルは、異なるデータセットからの重複しない臓器ラベルと異なるモデルによって抽出された異なる臓器特徴を利用し、追加の相互差分学習を導入し、ラベルなし臓器の高品質な擬似ラベルを生成する。
第2段階では、各全組織セグメンテーションモデルは、擬似ラベル付き完全ラベルデータセットで管理され、他のデータセットからの真のラベルを活用すると同時に、異なるモデル間で正確な機能を動的に共有し、さらに相互類似性学習を導入し、マルチ組織セグメンテーションパフォーマンスを向上させる。
頭と首、胸、腹部、骨盤を含む9つのデータセットで大規模な実験を行った。
その結果,部分ラベルに依存したセグメンテーション作業においてSOTA性能を達成し,相互学習機構の有効性を徹底的に検証した。
関連論文リスト
- Scribbles for All: Benchmarking Scribble Supervised Segmentation Across Datasets [51.74296438621836]
Scribbles for Allは、スクリブルラベルに基づいて訓練されたセマンティックセグメンテーションのためのラベルおよびトレーニングデータ生成アルゴリズムである。
弱い監督の源泉としてのスクリブルの主な制限は、スクリブルセグメンテーションのための挑戦的なデータセットの欠如である。
Scribbles for Allは、いくつかの人気のあるセグメンテーションデータセットのスクリブルラベルを提供し、密集したアノテーションを持つデータセットのスクリブルラベルを自動的に生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-08-22T15:29:08Z) - GuidedNet: Semi-Supervised Multi-Organ Segmentation via Labeled Data Guide Unlabeled Data [4.775846640214768]
半監督型多臓器画像分割は、医師が疾患の診断と治療計画を改善するのに役立つ。
キーとなる概念は、ラベル付きデータとラベルなしデータからのボクセル機能は、同じクラスに属する可能性が高い機能空間で互いに近接しているということである。
我々は、ラベル付きデータから得られた事前知識を活用してラベルなしデータのトレーニングをガイドする知識伝達クロス擬似ラベルスーパービジョン(KT-CPS)戦略を導入する。
論文 参考訳(メタデータ) (2024-08-09T07:46:01Z) - Label Dropout: Improved Deep Learning Echocardiography Segmentation Using Multiple Datasets With Domain Shift and Partial Labelling [3.2322708710124815]
本稿では,ドメイン特性とラベルの有無を関連付ける新しいラベルドロップアウト方式を提案する。
ラベルのドロップアウトは,複数の部分ラベル付きデータセットを用いたトレーニングにおいて,2つの心構造に対して62%,25%のエコーセグメンテーションDiceスコアを改善することを実証した。
論文 参考訳(メタデータ) (2024-03-12T16:57:56Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - COSST: Multi-organ Segmentation with Partially Labeled Datasets Using
Comprehensive Supervisions and Self-training [15.639976408273784]
ディープラーニングモデルは、マルチ組織セグメンテーションにおいて顕著な成功を収めてきたが、典型的には、興味のあるすべての器官に注釈を付けた大規模なデータセットを必要とする。
利用可能な部分ラベル付きデータセットの統一モデルを学習して、そのシナジスティックなポテンシャルを活用する方法については、調査が不可欠である。
COSSTと呼ばれる新しい2段階のフレームワークを提案し、このフレームワークは包括的監視信号と自己学習を効果的に効率的に統合する。
論文 参考訳(メタデータ) (2023-04-27T08:55:34Z) - Tailored Multi-Organ Segmentation with Model Adaptation and Ensemble [22.82094545786408]
マルチ組織セグメンテーションは、医用画像解析の基本的な課題である。
高価な労働コストと専門知識のため、多臓器アノテーションの入手は通常制限される。
本稿では,モデル適応段とモデルアンサンブル段からなる新しい2段法を提案する。
論文 参考訳(メタデータ) (2023-04-14T13:39:39Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。