論文の概要: M$^3$HL: Mutual Mask Mix with High-Low Level Feature Consistency for Semi-Supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2508.03752v1
- Date: Mon, 04 Aug 2025 05:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.366497
- Title: M$^3$HL: Mutual Mask Mix with High-Low Level Feature Consistency for Semi-Supervised Medical Image Segmentation
- Title(参考訳): M$3$HL:半監督型医用画像分割のための高レベル特徴を有する相互マスク混合
- Authors: Yajun Liu, Zenghui Zhang, Jiang Yue, Weiwei Guo, Dongying Li,
- Abstract要約: 上記の課題に対処するため,Multual Mask Mixと呼ばれる高レベル特徴整合性(M$3$HL)を提案する。
本手法は,ACDCおよびLAデータセットを含む広く採用されている医用画像セグメンテーションベンチマークの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 10.42922059959177
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data augmentation methods inspired by CutMix have demonstrated significant potential in recent semi-supervised medical image segmentation tasks. However, these approaches often apply CutMix operations in a rigid and inflexible manner, while paying insufficient attention to feature-level consistency constraints. In this paper, we propose a novel method called Mutual Mask Mix with High-Low level feature consistency (M$^3$HL) to address the aforementioned challenges, which consists of two key components: 1) M$^3$: An enhanced data augmentation operation inspired by the masking strategy from Masked Image Modeling (MIM), which advances conventional CutMix through dynamically adjustable masks to generate spatially complementary image pairs for collaborative training, thereby enabling effective information fusion between labeled and unlabeled images. 2) HL: A hierarchical consistency regularization framework that enforces high-level and low-level feature consistency between unlabeled and mixed images, enabling the model to better capture discriminative feature representations.Our method achieves state-of-the-art performance on widely adopted medical image segmentation benchmarks including the ACDC and LA datasets. Source code is available at https://github.com/PHPJava666/M3HL
- Abstract(参考訳): CutMixにインスパイアされたデータ拡張手法は、最近の半教師付き医療画像セグメンテーションタスクにおいて大きな可能性を示している。
しかしながら、これらのアプローチはしばしば、機能レベルの一貫性の制約に十分な注意を払っている一方で、厳密で柔軟性のない方法でCutMixの操作を適用する。
本稿では、上記の課題に対処するため、M$^3$HL(Mutual Mask Mix)と呼ばれる高レベル特徴整合性(M$^3$HL)の手法を提案する。
1)M$^3$:Masked Image Modeling (MIM)のマスキング戦略にインスパイアされた強化されたデータ拡張操作。
2)HL: ラベル付き画像と混合画像の高レベルかつ低レベルな特徴整合性を強制する階層的整合性正規化フレームワークにより,識別的特徴表現をよりよく把握し,ACDCやLAデータセットを含む広く採用されている医用画像セグメンテーションベンチマークで最先端のパフォーマンスを達成する。
ソースコードはhttps://github.com/PHPJava666/M3HLで入手できる。
関連論文リスト
- MedSegFactory: Text-Guided Generation of Medical Image-Mask Pairs [29.350200296504696]
MedSegFactoryは、モダリティとタスクをまたいだペア化された医療画像とセグメンテーションマスクを生成する汎用的なフレームワークである。
既存のセグメンテーションツールを強化するためにイメージマスクペアを提供する、無制限のデータリポジトリとして機能することを目指している。
論文 参考訳(メタデータ) (2025-04-09T13:56:05Z) - SimGen: A Diffusion-Based Framework for Simultaneous Surgical Image and Segmentation Mask Generation [1.9393128408121891]
テキスト・トゥ・イメージのような生成AIモデルは、セグメンテーションマスクのような空間アノテーションを取り入れることで、データの不足を軽減することができる。
本研究は,同時画像とマスク生成のための新しいタスクと手法であるSimGenを紹介する。
SimGenはDDPMフレームワークとResidual U-Netに基づく拡散モデルであり、高忠実度手術画像とそれに対応するセグメンテーションマスクを共同で生成するように設計されている。
論文 参考訳(メタデータ) (2025-01-15T18:48:38Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - Cross-model Mutual Learning for Exemplar-based Medical Image Segmentation [25.874281336821685]
Exemplar-based Medical Image(CMEMS)のためのクロスモデル相互学習フレームワーク
外来医用画像のためのクロスモデル相互学習フレームワーク(CMEMS)について紹介する。
論文 参考訳(メタデータ) (2024-04-18T00:18:07Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - GuidedMixup: An Efficient Mixup Strategy Guided by Saliency Maps [6.396288020763144]
本稿では,計算オーバーヘッドの少ない混合画像における局所領域の維持を目的とした GuidedMixup を提案する。
我々は,ペア画像の健全な領域の競合を最小限に抑えるために,効率的なペアリングアルゴリズムを開発した。
いくつかのデータセットの実験では、 GuidedMixupがオーバヘッドの増大と一般化のパフォーマンスのトレードオフとして優れていることが示されている。
論文 参考訳(メタデータ) (2023-06-29T00:55:51Z) - Multi-Granularity Denoising and Bidirectional Alignment for Weakly
Supervised Semantic Segmentation [75.32213865436442]
本稿では,雑音ラベルと多クラス一般化問題を緩和するために,MDBAモデルを提案する。
MDBAモデルはPASCAL VOC 2012データセットの検証とテストセットにおいて69.5%と70.2%のmIoUに達することができる。
論文 参考訳(メタデータ) (2023-05-09T03:33:43Z) - HybridMIM: A Hybrid Masked Image Modeling Framework for 3D Medical Image
Segmentation [29.15746532186427]
HybridMIMは3次元医用画像セグメンテーションのためのマスク付き画像モデリングに基づく新しいハイブリッド自己教師型学習手法である。
医用画像の意味情報を3段階に分けて学習し,1)3次元画像の重要な内容を再構成する部分領域予測を行うことにより,トレーニング前の時間負担を大幅に軽減する。
提案するフレームワークは,エンコーダバックボーンとしてCNNとトランスフォーマーの両方をサポートするとともに,イメージセグメンテーションのためのデコーダの事前トレーニングも可能である。
論文 参考訳(メタデータ) (2023-03-18T04:43:12Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。