論文の概要: Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2312.16039v1
- Date: Tue, 26 Dec 2023 12:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:13:40.186183
- Title: Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation
- Title(参考訳): 半教師付きポリープセグメンテーションのための2段階強化・クロスジェネレーション整合学習
- Authors: Yunqi Gu, Tao Zhou, Yizhe Zhang, Yi Zhou, Kelei He, Chen Gong, Huazhu
Fu
- Abstract要約: 大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
- 参考スコア(独自算出の注目度): 52.06525450636897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic polyp segmentation plays a crucial role in the early diagnosis and
treatment of colorectal cancer (CRC). However, existing methods heavily rely on
fully supervised training, which requires a large amount of labeled data with
time-consuming pixel-wise annotations. Moreover, accurately segmenting polyps
poses challenges due to variations in shape, size, and location. To address
these issues, we propose a novel Dual-scale Enhanced and Cross-generative
consistency learning framework for semi-supervised polyp Segmentation (DEC-Seg)
from colonoscopy images. First, we propose a Cross-level Feature Aggregation
(CFA) module that integrates cross-level adjacent layers to enhance the feature
representation ability across different resolutions. To address scale
variation, we present a scale-enhanced consistency constraint, which ensures
consistency in the segmentation maps generated from the same input image at
different scales. This constraint helps handle variations in polyp sizes and
improves the robustness of the model. Additionally, we design a scale-aware
perturbation consistency scheme to enhance the robustness of the mean teacher
model. Furthermore, we propose a cross-generative consistency scheme, in which
the original and perturbed images can be reconstructed using cross-segmentation
maps. This consistency constraint allows us to mine effective feature
representations and boost the segmentation performance. To produce more
accurate segmentation maps, we propose a Dual-scale Complementary Fusion (DCF)
module that integrates features from two scale-specific decoders operating at
different scales. Extensive experimental results on five benchmark datasets
demonstrate the effectiveness of our DEC-Seg against other state-of-the-art
semi-supervised segmentation approaches. The implementation code will be
released at https://github.com/taozh2017/DECSeg.
- Abstract(参考訳): 大腸癌 (CRC) の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
しかし、既存の手法は完全な教師付きトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
さらに、ポリープの正確なセグメンテーションは、形状、サイズ、位置のばらつきによる課題を引き起こす。
これらの課題に対処するため,大腸内視鏡画像からの半教師付きポリプセグメンテーション(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
まず,クロスレベル・フィーチャー・アグリゲーション(CFA, Cross-level Feature Aggregation)モジュールを提案する。
スケールのばらつきに対処するために,同じ入力画像から異なるスケールで生成されたセグメンテーションマップの一貫性を保証するスケール強調一貫性制約を提案する。
この制約はポリプサイズの変化を処理し、モデルの堅牢性を改善するのに役立つ。
さらに,平均教師モデルのロバスト性を高めるために,スケール対応摂動一貫性スキームを設計する。
さらに,クロスセグメントマップを用いて,原画像と摂動画像の再構成が可能なクロスジェネレーション整合性スキームを提案する。
この一貫性の制約により、効率的な特徴表現を抽出し、セグメンテーション性能を高めることができます。
より正確なセグメンテーションマップを作成するために、異なるスケールで動作する2つのスケール固有のデコーダの機能を統合するDCF(Dual-scale Complementary Fusion)モジュールを提案する。
5つのベンチマークデータセットの大規模な実験結果は、DEC-Segの他の最先端の半教師付きセグメンテーションアプローチに対する効果を示す。
実装コードはhttps://github.com/taozh2017/decsegでリリースされる。
関連論文リスト
- Self-supervised Semantic Segmentation: Consistency over Transformation [3.485615723221064]
Inception Large Kernel Attention (I-LKA) モジュールをベースとしたロバストなフレームワークを統合した新しい自己教師型アルゴリズム textbfS$3$-Net を提案する。
我々は、変形可能な畳み込みを積分成分として利用し、優れた物体境界定義のための歪み変形を効果的に捕捉し、デライン化する。
皮膚病変および肺臓器の分節タスクに関する実験結果から,SOTA法と比較して,本手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-08-31T21:28:46Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。