論文の概要: Unleashing Diffusion and State Space Models for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2506.12747v1
- Date: Sun, 15 Jun 2025 07:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.79826
- Title: Unleashing Diffusion and State Space Models for Medical Image Segmentation
- Title(参考訳): 医用画像分割のための解離拡散と状態空間モデル
- Authors: Rong Wu, Ziqi Chen, Liming Zhong, Heng Li, Hai Shu,
- Abstract要約: 既存のセグメンテーションモデルは、目に見えない臓器や腫瘍に遭遇するときに頑丈さを欠くことが多い。
DSMは、拡散と状態空間モデルを利用して、トレーニングデータ以外の未確認腫瘍カテゴリを分割するフレームワークである。
DSMは、オルガンレベルの視覚的特徴をキャプチャするために、オブジェクト認識機能グループ化戦略を使用してオルガンクエリを学習する。
その後、拡散に基づく視覚的プロンプトに焦点を当てて腫瘍のクエリを洗練し、これまで見えなかった腫瘍の正確なセグメンテーションを可能にする。
- 参考スコア(独自算出の注目度): 5.4377770015041795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing segmentation models trained on a single medical imaging dataset often lack robustness when encountering unseen organs or tumors. Developing a robust model capable of identifying rare or novel tumor categories not present during training is crucial for advancing medical imaging applications. We propose DSM, a novel framework that leverages diffusion and state space models to segment unseen tumor categories beyond the training data. DSM utilizes two sets of object queries trained within modified attention decoders to enhance classification accuracy. Initially, the model learns organ queries using an object-aware feature grouping strategy to capture organ-level visual features. It then refines tumor queries by focusing on diffusion-based visual prompts, enabling precise segmentation of previously unseen tumors. Furthermore, we incorporate diffusion-guided feature fusion to improve semantic segmentation performance. By integrating CLIP text embeddings, DSM captures category-sensitive classes to improve linguistic transfer knowledge, thereby enhancing the model's robustness across diverse scenarios and multi-label tasks. Extensive experiments demonstrate the superior performance of DSM in various tumor segmentation tasks. Code is available at https://github.com/Rows21/KMax-Mamba.
- Abstract(参考訳): 既存のセグメンテーションモデルは、単一の医療画像データセットで訓練されており、目に見えない臓器や腫瘍に遭遇する際には頑丈さを欠いていることが多い。
訓練中に存在しない希少または新規の腫瘍分類を特定できる堅牢なモデルの開発は、医用画像の進歩に不可欠である。
DSMは、拡散と状態空間モデルを利用して、トレーニングデータを超えた未確認腫瘍カテゴリを分割する新しいフレームワークである。
DSMは、修正されたアテンションデコーダ内で訓練された2セットのオブジェクトクエリを使用して、分類精度を向上させる。
当初、このモデルは、臓器レベルの視覚的特徴をキャプチャするために、オブジェクト認識機能グループ化戦略を用いてオルガンクエリを学習した。
その後、拡散に基づく視覚的プロンプトに焦点を当てて腫瘍のクエリを洗練し、これまで見えなかった腫瘍の正確なセグメンテーションを可能にする。
さらに,拡散誘導機能融合を取り入れ,セマンティックセグメンテーション性能を向上させる。
CLIPテキストの埋め込みを統合することで、DSMはカテゴリに敏感なクラスをキャプチャして言語伝達の知識を改善し、様々なシナリオやマルチラベルタスクにわたってモデルの堅牢性を高める。
様々な腫瘍セグメンテーションタスクにおけるDSMの優れた性能を示す大規模な実験を行った。
コードはhttps://github.com/Rows21/KMax-Mambaで入手できる。
関連論文リスト
- Advancing Generalizable Tumor Segmentation with Anomaly-Aware Open-Vocabulary Attention Maps and Frozen Foundation Diffusion Models [11.774375458215193]
Generalizable tumorは、さまざまな解剖学的領域にまたがるゼロショット腫瘍セグメンテーションのための単一のモデルを訓練することを目的としている。
DiffuGTSはテキストプロンプトに基づいて、異常対応のオープン語彙アテンションマップを生成する。
4つのデータセットと7つの腫瘍カテゴリの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2025-05-05T16:05:37Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical Information [1.7359724605901228]
脳腫瘍距離(BraTS)は、臨床診断、治療計画、脳腫瘍の進行のモニタリングにおいて重要な役割を果たす。
腫瘍の出現、サイズ、強度の変動により、自動セグメンテーションは難しい課題である。
セグメント化精度を高めるために多物理情報を統合するトランスフォーマーベースの新しいフレームワークである MultiPI-TransBTS を提案する。
論文 参考訳(メタデータ) (2024-09-18T17:35:19Z) - Universal and Extensible Language-Vision Models for Organ Segmentation and Tumor Detection from Abdominal Computed Tomography [50.08496922659307]
本稿では、単一のモデルであるUniversal Modelが複数の公開データセットに対処し、新しいクラスに適応することを可能にするユニバーサルフレームワークを提案する。
まず,大規模言語モデルからの言語埋め込みを利用した新しい言語駆動パラメータ生成手法を提案する。
第二に、従来の出力層は軽量でクラス固有のヘッドに置き換えられ、ユニバーサルモデルでは25の臓器と6種類の腫瘍を同時に分割することができる。
論文 参考訳(メタデータ) (2024-05-28T16:55:15Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Optimized Global Perturbation Attacks For Brain Tumour ROI Extraction
From Binary Classification Models [0.304585143845864]
本稿では,バイナリクラスラベルを用いた関心領域獲得のための弱教師付きアプローチを提案する。
また、事前訓練されたバイナリ分類モデルに基づいて、ジェネレータモデルをトレーニングするための新しい目的関数を提案する。
論文 参考訳(メタデータ) (2022-11-09T14:52:36Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。