論文の概要: Self-aware and Cross-sample Prototypical Learning for Semi-supervised
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2305.16214v1
- Date: Thu, 25 May 2023 16:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 14:01:38.629153
- Title: Self-aware and Cross-sample Prototypical Learning for Semi-supervised
Medical Image Segmentation
- Title(参考訳): 半教師付き医用画像セグメンテーションのための自己認識とクロスサンプル型学習
- Authors: Zhenxi Zhang, Ran Ran, Chunna Tian, Heng Zhou, Xin Li, Fan Yang,
Zhicheng Jiao
- Abstract要約: 整合性学習は半教師付き医療画像セグメンテーションにおいて重要な役割を担っている。
これにより、注釈なしデータの豊富さを生かしながら、限られた注釈付きデータの有効利用が可能になる。
一貫性学習における予測の多様性を高めるために,自己認識型・クロスサンプル型学習法(SCP-Net)を提案する。
- 参考スコア(独自算出の注目度): 10.18427897663732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consistency learning plays a crucial role in semi-supervised medical image
segmentation as it enables the effective utilization of limited annotated data
while leveraging the abundance of unannotated data. The effectiveness and
efficiency of consistency learning are challenged by prediction diversity and
training stability, which are often overlooked by existing studies. Meanwhile,
the limited quantity of labeled data for training often proves inadequate for
formulating intra-class compactness and inter-class discrepancy of pseudo
labels. To address these issues, we propose a self-aware and cross-sample
prototypical learning method (SCP-Net) to enhance the diversity of prediction
in consistency learning by utilizing a broader range of semantic information
derived from multiple inputs. Furthermore, we introduce a self-aware
consistency learning method that exploits unlabeled data to improve the
compactness of pseudo labels within each class. Moreover, a dual loss
re-weighting method is integrated into the cross-sample prototypical
consistency learning method to improve the reliability and stability of our
model. Extensive experiments on ACDC dataset and PROMISE12 dataset validate
that SCP-Net outperforms other state-of-the-art semi-supervised segmentation
methods and achieves significant performance gains compared to the limited
supervised training. Our code will come soon.
- Abstract(参考訳): 一貫性学習は、無記名データの豊富さを生かしながら、限られた注釈付きデータの有効利用を可能にするため、半教師付き医用画像分割において重要な役割を果たす。
一貫性学習の有効性と効率は、既存の研究でしばしば見過ごされる予測多様性とトレーニング安定性によって試される。
一方、トレーニング用ラベル付きデータの限られた量は、クラス内コンパクト性と擬似ラベルのクラス間不一致を定式化するのに不十分であることを示すことが多い。
そこで本研究では,複数入力から得られる幅広い意味情報を用いて,一貫性学習における予測の多様性を高めるための自己認識型・クロスサンプル型学習手法(scp-net)を提案する。
さらに,ラベルのないデータを利用してクラス内の擬似ラベルのコンパクト性を向上させる自己認識型一貫性学習手法を提案する。
さらに,二元損失再重み付け法をクロスサンプル型一貫性学習法に統合し,モデルの信頼性と安定性を向上させる。
ACDCデータセットとPROMISE12データセットの大規模な実験により、SCP-Netは他の最先端の半教師付きセグメンテーション手法よりも優れており、限られた教師付きトレーニングと比較して大きなパフォーマンス向上を実現している。
私たちのコードはもうすぐ来るでしょう。
関連論文リスト
- Maximally Separated Active Learning [32.98415531556376]
固定等角超球面点をクラスプロトタイプとして利用する能動的学習法を提案する。
5つのベンチマークデータセットにまたがる既存のアクティブラーニング技術よりも高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-26T14:02:43Z) - Consistency-Based Semi-supervised Evidential Active Learning for
Diagnostic Radiograph Classification [2.3545156585418328]
CSEAL(Consistency-based Semi-supervised Evidential Active Learning)フレームワークについて紹介する。
我々は、証拠理論と主観的論理に基づく予測の不確実性を利用して、エンドツーエンドの統合アプローチを開発する。
本手法は, ラベル付きサンプルを少なくして, より稀な異常の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-09-05T09:28:31Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Uncertainty-Guided Mutual Consistency Learning for Semi-Supervised
Medical Image Segmentation [9.745971699005857]
医用画像セグメンテーションのための新しい不確実性誘導相互整合学習フレームワークを提案する。
タスクレベルの正規化によるタスク内一貫性学習と、タスク間の整合性学習を統合して、幾何学的な形状情報を活用する。
本手法は,ラベルのないデータを活用し,既存の半教師付きセグメンテーション法より優れた性能を実現する。
論文 参考訳(メタデータ) (2021-12-05T08:19:41Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Adaptive Affinity Loss and Erroneous Pseudo-Label Refinement for Weakly
Supervised Semantic Segmentation [48.294903659573585]
本稿では,多段階アプローチの親和性学習を単一段階モデルに組み込むことを提案する。
深層ニューラルネットワークは、トレーニングフェーズで包括的なセマンティック情報を提供するために使用される。
提案手法の有効性を評価するため,PASCAL VOC 2012データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-08-03T07:48:33Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。