論文の概要: Deep Compatible Learning for Partially-Supervised Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2206.09148v1
- Date: Sat, 18 Jun 2022 08:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:07:53.063328
- Title: Deep Compatible Learning for Partially-Supervised Medical Image
Segmentation
- Title(参考訳): 部分監督型医用画像分割のためのDeep Compatible Learning
- Authors: Ke Zhang, Xiahai Zhuang
- Abstract要約: 本稿では,部分的構造のみを付加した画像を用いて,単一のマルチラベルセグメンテーションネットワークをトレーニングする,深い互換性のある学習フレームワークを提案する。
本稿では,この枠組みが従来の損失関数に適用可能であることを示す。
3つのセグメンテーションタスクの結果、提案するフレームワークは、完全に教師されたモデルと性能の一致を達成できることを示した。
- 参考スコア(独自算出の注目度): 16.188681108101196
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Partially-supervised learning can be challenging for segmentation due to the
lack of supervision for unlabeled structures, and the methods directly applying
fully-supervised learning could lead to incompatibility, meaning ground truth
is not in the solution set of the optimization problem given the loss function.
To address the challenge, we propose a deep compatible learning (DCL)
framework, which trains a single multi-label segmentation network using images
with only partial structures annotated. We first formulate the
partially-supervised segmentation as an optimization problem compatible with
missing labels, and prove its compatibility. Then, we equip the model with a
conditional segmentation strategy, to propagate labels from multiple
partially-annotated images to the target. Additionally, we propose a dual
learning strategy, which learns two opposite mappings of label propagation
simultaneously, to provide substantial supervision for unlabeled structures.
The two strategies are formulated into compatible forms, termed as conditional
compatibility and dual compatibility, respectively. We show this framework is
generally applicable for conventional loss functions. The approach attains
significant performance improvement over existing methods, especially in the
situation where only a small training dataset is available. Results on three
segmentation tasks have shown that the proposed framework could achieve
performance matching fully-supervised models.
- Abstract(参考訳): 部分教師付き学習は、ラベル付き構造に対する監督の欠如によりセグメンテーションにおいて困難であり、完全教師付き学習を直接適用する手法は非互換性をもたらす可能性がある。
この課題に対処するために,部分的構造のみを付加した画像を用いて,単一のマルチラベルセグメンテーションネットワークをトレーニングするディープラーニング学習(DCL)フレームワークを提案する。
まず,部分教師付きセグメンテーションを,欠落ラベルと互換性のある最適化問題として定式化し,その適合性を証明する。
次に,条件付きセグメンテーション戦略を用いて,複数の部分注釈画像からターゲットへのラベルの伝搬を行う。
さらに,ラベル伝播の反対の2つのマッピングを同時に学習し,ラベルなし構造に対する実質的な監視を行う2つの学習戦略を提案する。
2つの戦略は、それぞれ条件互換性と二重互換性と呼ばれる、互換性のある形式に定式化されている。
この枠組みは一般に従来の損失関数に適用可能であることを示す。
このアプローチは、特に小さなトレーニングデータセットのみが利用可能な状況において、既存のメソッドよりも大幅にパフォーマンスが向上する。
3つのセグメンテーションタスクの結果,提案手法が完全教師付きモデルに適合する性能を実現することが示された。
関連論文リスト
- SemSim: Revisiting Weak-to-Strong Consistency from a Semantic Similarity Perspective for Semi-supervised Medical Image Segmentation [18.223854197580145]
医用画像分割のための半教師付き学習(SSL)は難しいが、非常に実践的な課題である。
セムシム(SemSim)という名前のFixMatchに基づく新しいフレームワークを提案する。
SemSimは3つの公開セグメンテーションベンチマークで最先端の手法よりも一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-17T12:31:37Z) - Enhancing Weakly Supervised Semantic Segmentation with Multi-modal Foundation Models: An End-to-End Approach [7.012760526318993]
Weakly-Supervised Semantic (WSSS)は、広範囲なラベリングに対してコスト効率のよい回避手段を提供する。
既存のWSSSメソッドは、セグメンテーション結果の低さにつながるオブジェクトの境界を理解するのに苦労しています。
本稿では,境界ボックス内の視覚的基盤モデルを活用することにより,これらの問題に対処する,新しい効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-10T16:42:25Z) - Improving Few-Shot Part Segmentation using Coarse Supervision [32.34210260693939]
重要な課題は、これらのアノテーションが異なるタスクと異なるラベルスタイルで収集され、簡単にパートラベルにマッピングできないことである。
我々は,ラベル形式と部分分割モデルとの依存関係を共同で学習し,多様なラベルからの監督を活用できるようにする。
提案手法は,スパーススーパービジョンを利用するために手動で設計した損失関数に依存するマルチタスク学習,半教師付き学習,競争的手法に基づくベースラインよりも優れている。
論文 参考訳(メタデータ) (2022-04-11T20:25:14Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation [84.2925550033094]
ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
論文 参考訳(メタデータ) (2020-08-14T07:45:50Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Lookahead Adversarial Learning for Near Real-Time Semantic Segmentation [2.538209532048867]
我々は,最先端セグメンテーションモデル(DeepLabv3+)をコアとした条件付き対向ネットワークを構築した。
我々は、ほぼリアルタイムなフィールドアプリケーションのための推論で高速に実行されるセグメンテーションモデルに焦点を当てる。
論文 参考訳(メタデータ) (2020-06-19T17:04:38Z) - Structured Prediction with Partial Labelling through the Infimum Loss [85.4940853372503]
弱い監督の目標は、収集コストの安いラベル付け形式のみを使用してモデルを学習できるようにすることである。
これは、各データポイントに対して、実際のものを含むラベルのセットとして、監督がキャストされる不完全なアノテーションの一種です。
本稿では、構造化された予測と、部分的なラベリングを扱うための無限損失の概念に基づく統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-02T13:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。