論文の概要: Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2306.14293v1
- Date: Sun, 25 Jun 2023 16:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:45:03.820411
- Title: Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation
- Title(参考訳): 半監督型医用画像分割のためのマルチスケールクロスコントラスト学習
- Authors: Qianying Liu, Xiao Gu, Paul Henderson, Fani Deligianni
- Abstract要約: 医用画像の構造を分割するマルチスケールクロススーパービジョンコントラスト学習フレームワークを開発した。
提案手法は,頑健な特徴表現を抽出するために,地上構造と横断予測ラベルに基づくマルチスケール特徴と対比する。
Diceでは最先端の半教師あり手法を3.0%以上上回っている。
- 参考スコア(独自算出の注目度): 14.536384387956527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning has demonstrated great potential in medical image
segmentation by utilizing knowledge from unlabeled data. However, most existing
approaches do not explicitly capture high-level semantic relations between
distant regions, which limits their performance. In this paper, we focus on
representation learning for semi-supervised learning, by developing a novel
Multi-Scale Cross Supervised Contrastive Learning (MCSC) framework, to segment
structures in medical images. We jointly train CNN and Transformer models,
regularising their features to be semantically consistent across different
scales. Our approach contrasts multi-scale features based on ground-truth and
cross-predicted labels, in order to extract robust feature representations that
reflect intra- and inter-slice relationships across the whole dataset. To
tackle class imbalance, we take into account the prevalence of each class to
guide contrastive learning and ensure that features adequately capture
infrequent classes. Extensive experiments on two multi-structure medical
segmentation datasets demonstrate the effectiveness of MCSC. It not only
outperforms state-of-the-art semi-supervised methods by more than 3.0% in Dice,
but also greatly reduces the performance gap with fully supervised methods.
- Abstract(参考訳): 半教師付き学習は、ラベルなしのデータからの知識を活用し、医療画像分割において大きな可能性を示している。
しかし、既存のほとんどのアプローチは、その性能を制限する遠隔地間の高度な意味関係を明示的に捉えていない。
本稿では, 半教師あり学習のための表現学習に着目し, 医用画像のセグメンテーション構造に対して, マルチスケールクロス教師ありコントラスト学習(mcsc)フレームワークを開発した。
CNNとTransformerモデルを共同でトレーニングし、さまざまなスケールでセマンティックに一貫性のある機能を規則化しています。
提案手法は,データセット全体のスライス内およびスライス間関係を反映したロバストな特徴表現を抽出するために,地中構造とクロス予測ラベルに基づくマルチスケール特徴と対比する。
クラス不均衡に取り組むために,コントラスト学習を指導する各クラスの普及状況を考慮して,機能的に不適切なクラスを適切に捉えることを保証する。
2つの多構造医療セグメンテーションデータセットに対する大規模な実験は、MCSCの有効性を実証している。
Diceでは最先端の半教師付きメソッドを3.0%以上上回るだけでなく、完全に教師付きメソッドでのパフォーマンスギャップを大幅に減らす。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Robust Semi-supervised Multimodal Medical Image Segmentation via Cross Modality Collaboration [21.97457095780378]
本稿では,ラベル付きデータの不足やモダリティの不一致に頑健な,新しい半教師付きマルチモーダルセグメンテーションフレームワークを提案する。
本フレームワークでは,各モダリティに固有の,モダリティに依存しない知識を蒸留する,新たなモダリティ協調戦略を採用している。
また、対照的な一貫した学習を統合して解剖学的構造を規制し、ラベルのないデータに対する解剖学的予測アライメントを容易にする。
論文 参考訳(メタデータ) (2024-08-14T07:34:12Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Consistency-Based Semi-supervised Evidential Active Learning for
Diagnostic Radiograph Classification [2.3545156585418328]
CSEAL(Consistency-based Semi-supervised Evidential Active Learning)フレームワークについて紹介する。
我々は、証拠理論と主観的論理に基づく予測の不確実性を利用して、エンドツーエンドの統合アプローチを開発する。
本手法は, ラベル付きサンプルを少なくして, より稀な異常の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-09-05T09:28:31Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Contrastive Semi-Supervised Learning for 2D Medical Image Segmentation [16.517086214275654]
フルイメージではなく,画像パッチにContrastive Learning(CL)を適用した,新しい半教師付き2次元医療セグメンテーションソリューションを提案する。
これらのパッチは、擬似ラベリングによって得られた異なるクラスの意味情報を用いて有意義に構築される。
また,コントラスト学習と相乗効果を持つ新しい整合正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-12T15:43:24Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。