論文の概要: ABS-Mamba: SAM2-Driven Bidirectional Spiral Mamba Network for Medical Image Translation
- arxiv url: http://arxiv.org/abs/2505.07687v1
- Date: Mon, 12 May 2025 15:51:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.465607
- Title: ABS-Mamba: SAM2-Driven Bidirectional Spiral Mamba Network for Medical Image Translation
- Title(参考訳): ABS-Mamba:SAM2駆動の医用画像翻訳用双方向スパイラルマンバネットワーク
- Authors: Feng Yuan, Yifan Gao, Wenbin Wu, Keqing Wu, Xiaotong Guo, Jie Jiang, Xin Gao,
- Abstract要約: ABS-Mambaはオーガニック・アウェア・セマンティックな表現のための新しいアーキテクチャである。
CNNは、モダリティ固有のエッジとテクスチャの詳細を保存する。
効率的な長距離および短距離機能依存のためのMambaの選択的な状態空間モデリング。
- 参考スコア(独自算出の注目度): 20.242887183708653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate multi-modal medical image translation requires ha-rmonizing global anatomical semantics and local structural fidelity, a challenge complicated by intermodality information loss and structural distortion. We propose ABS-Mamba, a novel architecture integrating the Segment Anything Model 2 (SAM2) for organ-aware semantic representation, specialized convolutional neural networks (CNNs) for preserving modality-specific edge and texture details, and Mamba's selective state-space modeling for efficient long- and short-range feature dependencies. Structurally, our dual-resolution framework leverages SAM2's image encoder to capture organ-scale semantics from high-resolution inputs, while a parallel CNNs branch extracts fine-grained local features. The Robust Feature Fusion Network (RFFN) integrates these epresentations, and the Bidirectional Mamba Residual Network (BMRN) models spatial dependencies using spiral scanning and bidirectional state-space dynamics. A three-stage skip fusion decoder enhances edge and texture fidelity. We employ Efficient Low-Rank Adaptation (LoRA+) fine-tuning to enable precise domain specialization while maintaining the foundational capabilities of the pre-trained components. Extensive experimental validation on the SynthRAD2023 and BraTS2019 datasets demonstrates that ABS-Mamba outperforms state-of-the-art methods, delivering high-fidelity cross-modal synthesis that preserves anatomical semantics and structural details to enhance diagnostic accuracy in clinical applications. The code is available at https://github.com/gatina-yone/ABS-Mamba
- Abstract(参考訳): 正確なマルチモーダルな医用画像の翻訳には、グローバルな解剖学的意味論と局所的な構造的忠実さが不可欠である。
ABS-Mambaは,臓器を意識した意味表現のためのセグメンテーションモデル2(SAM2)と,モダリティ固有のエッジとテクスチャの詳細を保存するための特別な畳み込みニューラルネットワーク(CNN)と,長期的および短距離的特徴依存の効率的な状態空間モデルである。
構造的には、私たちのデュアル解像度フレームワークはSAM2の画像エンコーダを利用して高解像度入力からオルガンスケールのセマンティクスをキャプチャし、並列CNNはきめ細かい局所的特徴を抽出する。
ロバスト・フィーチャー・フュージョン・ネットワーク(RFFN)はこれらの表現を統合し、双方向マンバ・リシダル・ネットワーク(BMRN)はスパイラルスキャンと双方向状態空間力学を用いて空間依存をモデル化する。
3段スキップ核融合デコーダは、エッジとテクスチャの忠実度を高める。
トレーニング済みコンポーネントの基本機能を維持しつつ、ドメインの精密化を実現するために、LoRA+(Efficient Low-Rank Adaptation)を微調整する。
SynthRAD2023とBraTS2019データセットに対する大規模な実験的検証は、ABS-Mambaが最先端の手法より優れており、臨床応用における診断精度を高めるために解剖学的意味論と構造的詳細を保存する高忠実なクロスモーダル合成を提供することを示している。
コードはhttps://github.com/gatina-yone/ABS-Mambaで入手できる。
関連論文リスト
- RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement [59.364418120895]
水中画像強調(UIE)は、海洋視覚応用のための重要な前処理ステップである。
実効UIE(RD-UIE)のための新しい関係駆動型マンバフレームワークを開発した。
水中強化ベンチマークの実験では、RD-UIEは最先端のアプローチであるWMambaよりも優れていた。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - I2I-Mamba: Multi-modal medical image synthesis via selective state space modeling [8.48392350084504]
本稿では,医用画像合成のための新しい敵対モデルI2I-Mambaを提案する。
I2I-Mambaは、ターゲットモダリティ画像の合成における最先端CNNおよびトランスフォーマーベースの手法に対して優れた性能を提供する。
論文 参考訳(メタデータ) (2024-05-22T21:55:58Z) - VM-DDPM: Vision Mamba Diffusion for Medical Image Synthesis [0.8111815974227898]
状態空間モデル(SSM)に基づくビジョンマンバDDPM(VM-DDPM)を提案する。
我々の知る限り、これはSSM-CNNハイブリッドアーキテクチャに基づく最初の医用画像合成モデルである。
ACDC、BraTS2018、ChestXRayの3つの異なるスケールのデータセットに対する実験的な評価は、VM-DDPMが最先端のパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2024-05-09T10:41:18Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Adaptive Linear Span Network for Object Skeleton Detection [56.78705071830965]
本研究では,適応線形スパンネットワーク(AdaLSN)を提案する。
AdaLSNは、精度とレイテンシのトレードオフを著しく高めることで、その汎用性を裏付ける。
また、エッジ検出や道路抽出といったイメージ・ツー・マスクのタスクに適用可能であることも示している。
論文 参考訳(メタデータ) (2020-11-08T12:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。