論文の概要: PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training
- arxiv url: http://arxiv.org/abs/2207.11683v1
- Date: Sun, 24 Jul 2022 07:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:01:08.535695
- Title: PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training
- Title(参考訳): PCA: Patch Confidence Adversarial Training を用いた半教師付きセグメンテーション
- Authors: Zihang Xu, Zhenghua Xu, Shuo Zhang, Thomas Lukasiewicz
- Abstract要約: 医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
- 参考スコア(独自算出の注目度): 52.895952593202054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning based semi-supervised learning (SSL) methods have achieved
strong performance in medical image segmentation, which can alleviate doctors'
expensive annotation by utilizing a large amount of unlabeled data. Unlike most
existing semi-supervised learning methods, adversarial training based methods
distinguish samples from different sources by learning the data distribution of
the segmentation map, leading the segmenter to generate more accurate
predictions. We argue that the current performance restrictions for such
approaches are the problems of feature extraction and learning preference. In
this paper, we propose a new semi-supervised adversarial method called Patch
Confidence Adversarial Training (PCA) for medical image segmentation. Rather
than single scalar classification results or pixel-level confidence maps, our
proposed discriminator creates patch confidence maps and classifies them at the
scale of the patches. The prediction of unlabeled data learns the pixel
structure and context information in each patch to get enough gradient
feedback, which aids the discriminator in convergent to an optimal state and
improves semi-supervised segmentation performance. Furthermore, at the
discriminator's input, we supplement semantic information constraints on
images, making it simpler for unlabeled data to fit the expected data
distribution. Extensive experiments on the Automated Cardiac Diagnosis
Challenge (ACDC) 2017 dataset and the Brain Tumor Segmentation (BraTS) 2019
challenge dataset show that our method outperforms the state-of-the-art
semi-supervised methods, which demonstrates its effectiveness for medical image
segmentation.
- Abstract(参考訳): 深層学習に基づく半教師あり学習法 (SSL) は, 医用画像のセグメンテーションにおいて, 大量の未ラベルデータを活用することで, 医師の高価なアノテーションを緩和する。
既存の半教師付き学習法とは異なり、逆学習に基づく手法は、セグメント化マップのデータ分布を学習することで、異なるソースからのサンプルを区別し、より正確な予測を生成する。
このような手法の現在の性能制限は特徴抽出と学習優先の問題であると主張する。
本稿では,医用画像セグメンテーションのためのPatch Confidence Adversarial Training (PCA) と呼ばれる半教師付き対向法を提案する。
提案する判別器は,単一のスカラー分類結果やピクセルレベルの信頼度マップではなく,パッチ信頼度マップを作成し,パッチ規模で分類する。
ラベルなしデータの予測は、各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得ることで、判別器を最適状態に収束させ、半教師付きセグメンテーション性能を向上させる。
さらに,識別者の入力において,画像に対する意味的情報制約を補足し,ラベルなしのデータが期待されるデータ分布に適合しやすいようにした。
ACDC(Automated Cardiac Diagnosis Challenge)2017データセットとBraTS(Brain tumor Segmentation)2019 Challengeデータセットの大規模な実験により、我々の手法は最先端の半教師付き手法よりも優れており、医用画像セグメンテーションの有効性を示している。
関連論文リスト
- Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Explainable Semantic Medical Image Segmentation with Style [7.074258860680265]
ラベル付きデータのみを限定して一般化可能なセグメンテーションを実現するための,完全教師付き生成フレームワークを提案する。
提案手法は,エンド・ツー・エンドの対角訓練を取り入れたセグメンテーション・タスク駆動型識別器と組み合わせた医用画像スタイルを作成する。
完全セマンティックで公開可能なペルビウスデータセットの実験では、我々の手法は他の最先端の手法よりも、シフトに対してより一般化可能であることが示された。
論文 参考訳(メタデータ) (2023-03-10T04:34:51Z) - Self-Supervised-RCNN for Medical Image Segmentation with Limited Data
Annotation [0.16490701092527607]
ラベルなしMRIスキャンによる自己教師付き事前学習に基づく新たなディープラーニング学習戦略を提案する。
我々の事前学習アプローチはまず、ラベルのない画像のランダム領域に異なる歪みをランダムに適用し、次に歪みの種類と情報の損失を予測する。
異なる事前学習シナリオと微調整シナリオにおけるセグメンテーション課題に対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-07-17T13:28:52Z) - Uncertainty-Guided Mutual Consistency Learning for Semi-Supervised
Medical Image Segmentation [9.745971699005857]
医用画像セグメンテーションのための新しい不確実性誘導相互整合学習フレームワークを提案する。
タスクレベルの正規化によるタスク内一貫性学習と、タスク間の整合性学習を統合して、幾何学的な形状情報を活用する。
本手法は,ラベルのないデータを活用し,既存の半教師付きセグメンテーション法より優れた性能を実現する。
論文 参考訳(メタデータ) (2021-12-05T08:19:41Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - Uncertainty guided semi-supervised segmentation of retinal layers in OCT
images [4.046207281399144]
セグメンテーションネットワークを訓練する学生・教師のアプローチに基づく,新しい不確実性誘導半教師学習を提案する。
提案するフレームワークは,様々な画像モダリティにまたがるバイオメディカルイメージセグメンテーションに有効である。
論文 参考訳(メタデータ) (2021-03-02T23:14:25Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。