論文の概要: ConDSeg: A General Medical Image Segmentation Framework via Contrast-Driven Feature Enhancement
- arxiv url: http://arxiv.org/abs/2412.08345v1
- Date: Wed, 11 Dec 2024 12:34:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:21.782064
- Title: ConDSeg: A General Medical Image Segmentation Framework via Contrast-Driven Feature Enhancement
- Title(参考訳): ConDSeg: コントラスト駆動機能拡張による一般的な医用画像分割フレームワーク
- Authors: Mengqi Lei, Haochen Wu, Xinhua Lv, Xin Wang,
- Abstract要約: コントラスト駆動医療画像(ConDSeg)というフレームワークを提案する。
様々な照明およびコントラストシナリオにおけるエンコーダの堅牢性を改善するように設計されている。
画像内の異なる大きさのエンティティを正確に特定し、共起特徴の誤学習を避ける。
- 参考スコア(独自算出の注目度): 5.117018155594986
- License:
- Abstract: Medical image segmentation plays an important role in clinical decision making, treatment planning, and disease tracking. However, it still faces two major challenges. On the one hand, there is often a ``soft boundary'' between foreground and background in medical images, with poor illumination and low contrast further reducing the distinguishability of foreground and background within the image. On the other hand, co-occurrence phenomena are widespread in medical images, and learning these features is misleading to the model's judgment. To address these challenges, we propose a general framework called Contrast-Driven Medical Image Segmentation (ConDSeg). First, we develop a contrastive training strategy called Consistency Reinforcement. It is designed to improve the encoder's robustness in various illumination and contrast scenarios, enabling the model to extract high-quality features even in adverse environments. Second, we introduce a Semantic Information Decoupling module, which is able to decouple features from the encoder into foreground, background, and uncertainty regions, gradually acquiring the ability to reduce uncertainty during training. The Contrast-Driven Feature Aggregation module then contrasts the foreground and background features to guide multi-level feature fusion and key feature enhancement, further distinguishing the entities to be segmented. We also propose a Size-Aware Decoder to solve the scale singularity of the decoder. It accurately locate entities of different sizes in the image, thus avoiding erroneous learning of co-occurrence features. Extensive experiments on five medical image datasets across three scenarios demonstrate the state-of-the-art performance of our method, proving its advanced nature and general applicability to various medical image segmentation scenarios. Our released code is available at \url{https://github.com/Mengqi-Lei/ConDSeg}.
- Abstract(参考訳): 医療画像のセグメンテーションは、臨床意思決定、治療計画、疾患追跡において重要な役割を担っている。
しかし、2つの大きな課題に直面している。
一方, 医用画像では, 前景と背景の間に「ソフト境界」がしばしば存在し, 照度が低く, コントラストも低いため, 前景と背景の識別性が低下する。
一方、共起現象は医療画像に広く見られ、これらの特徴を学習することはモデルの判断に誤解をもたらす。
これらの課題に対処するため,Contrast-Driven Medical Image Segmentation (ConDSeg) と呼ばれる一般的なフレームワークを提案する。
まず、一貫性強化(Consistency Reinforcement)と呼ばれる対照的なトレーニング戦略を開発する。
各種照明およびコントラストシナリオにおけるエンコーダのロバスト性を改善するために設計されており、悪環境においても高品質な特徴を抽出することができる。
次に,セマンティック・インフォメーション・デカップリング(Semantic Information Decoupling)モジュールを導入し,エンコーダからフォアグラウンド,バックグラウンド,不確実性を分離し,トレーニング中の不確実性を段階的に低減する。
Contrast-Driven Feature Aggregationモジュールは、フォアグラウンドとバックグラウンドの機能を対比して、マルチレベル機能融合とキー機能拡張をガイドし、セグメント化すべきエンティティをさらに区別する。
また,デコーダのスケール特異性を解くために,サイズ対応デコーダを提案する。
画像中の異なる大きさのエンティティを正確に特定し、共起特徴の誤学習を避ける。
3つのシナリオにまたがる5つの医用画像データセットの大規模な実験により、本手法の最先端性能が証明され、その高度な性質と様々な医用画像セグメンテーションシナリオへの適用性が証明された。
リリースされたコードは、 \url{https://github.com/Mengqi-Lei/ConDSeg}で利用可能です。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Self-supervised Semantic Segmentation: Consistency over Transformation [3.485615723221064]
Inception Large Kernel Attention (I-LKA) モジュールをベースとしたロバストなフレームワークを統合した新しい自己教師型アルゴリズム textbfS$3$-Net を提案する。
我々は、変形可能な畳み込みを積分成分として利用し、優れた物体境界定義のための歪み変形を効果的に捕捉し、デライン化する。
皮膚病変および肺臓器の分節タスクに関する実験結果から,SOTA法と比較して,本手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-08-31T21:28:46Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Cross-level Contrastive Learning and Consistency Constraint for
Semi-supervised Medical Image Segmentation [46.678279106837294]
半教師型医用画像セグメンテーションにおける局所特徴の表現能力を高めるためのクロスレベルコンストラシティブ学習手法を提案する。
クロスレベルなコントラスト学習と一貫性制約の助けを借りて、非ラベル付きデータを効果的に探索してセグメンテーション性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-08T15:12:11Z) - TransAttUnet: Multi-level Attention-guided U-Net with Transformer for
Medical Image Segmentation [33.45471457058221]
本稿では,TransAttUnetと呼ばれるトランスフォーマーベースの医用画像セマンティックセマンティック・セマンティック・フレームワークを提案する。
特に,デコーダブロック間の複数スケールのスキップ接続を確立することで,セマンティック・スケールのアップサンプリング機能を集約する。
我々の手法は一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2021-07-12T09:17:06Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。