論文の概要: CrossMatch: Enhance Semi-Supervised Medical Image Segmentation with Perturbation Strategies and Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2405.00354v2
- Date: Wed, 7 Aug 2024 09:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 15:25:48.707340
- Title: CrossMatch: Enhance Semi-Supervised Medical Image Segmentation with Perturbation Strategies and Knowledge Distillation
- Title(参考訳): CrossMatch: 摂動戦略と知識蒸留による半監督型医用画像セグメンテーション
- Authors: Bin Zhao, Chunshi Wang, Shuxue Ding,
- Abstract要約: CrossMatchは、ラベル付きデータとラベルなしデータの両方からモデルの学習を改善するために、知識蒸留とデュアル戦略レベルの機能レベルを統合する新しいフレームワークである。
本手法は,ラベル付きデータとラベルなしデータのトレーニングのギャップを効果的に最小化することにより,標準ベンチマークにおける他の最先端技術を大幅に超えている。
- 参考スコア(独自算出の注目度): 7.6057981800052845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning for medical image segmentation presents a unique challenge of efficiently using limited labeled data while leveraging abundant unlabeled data. Despite advancements, existing methods often do not fully exploit the potential of the unlabeled data for enhancing model robustness and accuracy. In this paper, we introduce CrossMatch, a novel framework that integrates knowledge distillation with dual perturbation strategies-image-level and feature-level-to improve the model's learning from both labeled and unlabeled data. CrossMatch employs multiple encoders and decoders to generate diverse data streams, which undergo self-knowledge distillation to enhance consistency and reliability of predictions across varied perturbations. Our method significantly surpasses other state-of-the-art techniques in standard benchmarks by effectively minimizing the gap between training on labeled and unlabeled data and improving edge accuracy and generalization in medical image segmentation. The efficacy of CrossMatch is demonstrated through extensive experimental validations, showing remarkable performance improvements without increasing computational costs. Code for this implementation is made available at https://github.com/AiEson/CrossMatch.git.
- Abstract(参考訳): 医用画像セグメンテーションのための半教師付き学習は、豊富なラベル付きデータを活用しながら、限られたラベル付きデータを効率的に利用するというユニークな課題を提示する。
進歩にもかかわらず、既存の手法はモデル堅牢性と精度を高めるためにラベルのないデータの可能性を完全に活用しないことが多い。
本稿では,ラベル付きデータとラベルなしデータの両方からモデルの学習を改善するために,知識蒸留と二重摂動戦略を融合した新しいフレームワークであるCrossMatchを紹介する。
CrossMatchでは、複数のエンコーダとデコーダを使用して、さまざまなデータストリームを生成する。
本手法は,ラベル付きデータのトレーニングとラベルなしデータのギャップを効果的に最小化し,医用画像セグメンテーションにおけるエッジ精度と一般化を向上することにより,標準ベンチマークにおける他の最先端技術を大幅に上回っている。
CrossMatchの有効性は、広範囲な実験的検証を通じて実証され、計算コストを増大させることなく、顕著な性能向上を示す。
この実装のコードはhttps://github.com/AiEson/CrossMatch.gitで公開されている。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Pseudo Label-Guided Data Fusion and Output Consistency for
Semi-Supervised Medical Image Segmentation [9.93871075239635]
より少ないアノテーションで医用画像のセグメンテーションを行うための平均教師ネットワーク上に構築されたPLGDFフレームワークを提案する。
本稿では,ラベル付きデータとラベルなしデータを組み合わせてデータセットを効果的に拡張する,新しい擬似ラベル利用方式を提案する。
本フレームワークは,最先端の6つの半教師あり学習手法と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2023-11-17T06:36:43Z) - AdLER: Adversarial Training with Label Error Rectification for One-Shot
Medical Image Segmentation [24.902447478719303]
逆トレーニングとラベル誤り訂正(AdLER)を併用した新しいワンショット医用画像分割法を提案する。
具体的には、新しい二重整合性制約を実装し、解剖学的整合性を保証し、登録エラーを低減する。
また,アトラス画像を増大させるための対角的トレーニング戦略も開発し,世代多様性とセグメンテーションの堅牢性を両立させる。
論文 参考訳(メタデータ) (2023-09-02T16:06:50Z) - Dual-Decoder Consistency via Pseudo-Labels Guided Data Augmentation for
Semi-Supervised Medical Image Segmentation [13.707121013895929]
本稿では, Pseudo-Labels Guided Data Augmentation を用いた新しい半教師付き学習手法である Dual-Decoder Consistency を提案する。
我々は、同じエンコーダを維持しながら、生徒と教師のネットワークに異なるデコーダを使用します。
ラベルのないデータから学習するために、教師ネットワークによって生成された擬似ラベルを作成し、擬似ラベルでトレーニングデータを増強する。
論文 参考訳(メタデータ) (2023-08-31T09:13:34Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Label fusion and training methods for reliable representation of
inter-rater uncertainty [0.0]
複数のレーダからのアノテーションによるディープラーニングネットワークのトレーニングは、モデルの偏見を1人の専門家に緩和する。
異なる専門家のラベルを考慮する様々な方法が存在する。
STAPLE, レートラのセグメンテーションの平均値, トレーニング中に各レートラのセグメンテーションをランダムにサンプリングする3つのラベル融合法を比較した。
論文 参考訳(メタデータ) (2022-02-15T16:35:47Z) - Uncertainty-Guided Mutual Consistency Learning for Semi-Supervised
Medical Image Segmentation [9.745971699005857]
医用画像セグメンテーションのための新しい不確実性誘導相互整合学習フレームワークを提案する。
タスクレベルの正規化によるタスク内一貫性学習と、タスク間の整合性学習を統合して、幾何学的な形状情報を活用する。
本手法は,ラベルのないデータを活用し,既存の半教師付きセグメンテーション法より優れた性能を実現する。
論文 参考訳(メタデータ) (2021-12-05T08:19:41Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。