論文の概要: Test-Time Modality Generalization for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2502.19671v1
- Date: Thu, 27 Feb 2025 01:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:57:52.642412
- Title: Test-Time Modality Generalization for Medical Image Segmentation
- Title(参考訳): 医用画像セグメンテーションのためのテスト時間モダリティの一般化
- Authors: Ju-Hyeon Nam, Sang-Chul Lee,
- Abstract要約: 一般的な医用画像のセグメンテーションは、さまざまな臨床現場で一貫したパフォーマンスを確保するために不可欠である。
MASP(Modality-Aware Style Projection)とMSIW(Modality-Sensitive Instance Whitening)の2つのコアコンポーネントからなる新しいテスト時モダリティ一般化(TTMG)フレームワークを紹介する。
MASPは、見た各モダリティに属するテストインスタンスの可能性を推定し、モダリティ固有のスタイルベースを使用して分布にマッピングし、そのプロジェクションを効果的に導く。
MSIWは、モダリティの不変性を保ちながら、モダリティに敏感な情報を選択的に抑制するために訓練中に適用される。
- 参考スコア(独自算出の注目度): 0.9092907230570326
- License:
- Abstract: Generalizable medical image segmentation is essential for ensuring consistent performance across diverse unseen clinical settings. However, existing methods often overlook the capability to generalize effectively across arbitrary unseen modalities. In this paper, we introduce a novel Test-Time Modality Generalization (TTMG) framework, which comprises two core components: Modality-Aware Style Projection (MASP) and Modality-Sensitive Instance Whitening (MSIW), designed to enhance generalization in arbitrary unseen modality datasets. The MASP estimates the likelihood of a test instance belonging to each seen modality and maps it onto a distribution using modality-specific style bases, guiding its projection effectively. Furthermore, as high feature covariance hinders generalization to unseen modalities, the MSIW is applied during training to selectively suppress modality-sensitive information while retaining modality-invariant features. By integrating MASP and MSIW, the TTMG framework demonstrates robust generalization capabilities for medical image segmentation in unseen modalities a challenge that current methods have largely neglected. We evaluated TTMG alongside other domain generalization techniques across eleven datasets spanning four modalities (colonoscopy, ultrasound, dermoscopy, and radiology), consistently achieving superior segmentation performance across various modality combinations.
- Abstract(参考訳): 一般的な医用画像のセグメンテーションは、さまざまな臨床現場で一貫したパフォーマンスを確保するために不可欠である。
しかし、既存の手法は、任意の未知のモダリティに対して効果的に一般化する能力を見落としていることが多い。
本稿では,MASP (Modality-Aware Style Projection) とMSIW (Modality-Sensitive Instance Whitening) の2つのコアコンポーネントから構成される,TTMG(Test-Time Modality Generalization) フレームワークを紹介する。
MASPは、見た各モダリティに属するテストインスタンスの可能性を推定し、モダリティ固有のスタイルベースを使用して分布にマッピングし、そのプロジェクションを効果的に導く。
さらに、高特徴共分散は、モダリティの一般化を妨げるため、トレーニング中にMDIWを適用し、モダリティ不変の特徴を保持しながら、モダリティ感受性情報を選択的に抑制する。
MASPとMSIWを統合することで、TTMGフレームワークは、現在の手法がほとんど無視している課題である、見えないモダリティにおける医用画像セグメンテーションの堅牢な一般化機能を示す。
TTMGは4つのモード(大腸内視鏡,超音波,皮膚鏡,放射線検査)にまたがる11のデータセットにまたがる他の領域一般化手法とともに評価され,各モードの組み合わせで優れたセグメンテーション性能が得られた。
関連論文リスト
- AMM-Diff: Adaptive Multi-Modality Diffusion Network for Missing Modality Imputation [2.8498944632323755]
臨床実践において、フルイメージングは必ずしも実現可能ではなく、多くの場合、複雑な取得プロトコル、厳格なプライバシ規則、特定の臨床ニーズのためである。
有望な解決策は、利用可能なものから欠落したモダリティが生成されるデータ計算の欠如である。
適応多モード拡散ネットワーク (AMM-Diff) を提案する。
論文 参考訳(メタデータ) (2025-01-22T12:29:33Z) - Towards Modality Generalization: A Benchmark and Prospective Analysis [56.84045461854789]
本稿では,モダリティ・ジェネリゼーション(MG)について述べる。
マルチモーダルアルゴリズムを特徴とする包括的ベンチマークを提案し,一般化に着目した既存手法を適用した。
私たちの研究は、堅牢で適応可能なマルチモーダルモデルを進化させる基盤を提供し、現実的なシナリオで目に見えないモダリティを扱えるようにします。
論文 参考訳(メタデータ) (2024-12-24T08:38:35Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Enhancing Modality-Agnostic Representations via Meta-Learning for Brain
Tumor Segmentation [16.747365311040863]
そこで本研究では,メタラーニング戦略を用いてモダリティ非依存表現を学習する手法を提案する。
われわれのフレームワークは、欠落したモダリティシナリオにおいて最先端の脳腫瘍セグメンテーション技術より著しく優れている。
論文 参考訳(メタデータ) (2023-02-08T19:53:07Z) - Exploiting Partial Common Information Microstructure for Multi-Modal
Brain Tumor Segmentation [11.583406152227637]
マルチモーダル性による学習は、磁気共鳴画像データから自動脳腫瘍セグメント化に不可欠である。
既存のアプローチは、モダリティのサブセットによって共有される部分的な共通情報に不可避である。
本稿では,このような部分的な共通情報を同定することで,画像分割モデルの識別能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-02-06T01:28:52Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。