論文の概要: Versatile and Efficient Medical Image Super-Resolution Via Frequency-Gated Mamba
- arxiv url: http://arxiv.org/abs/2510.27296v1
- Date: Fri, 31 Oct 2025 09:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.043866
- Title: Versatile and Efficient Medical Image Super-Resolution Via Frequency-Gated Mamba
- Title(参考訳): 医療画像の高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高分解能・高
- Authors: Wenfeng Huang, Xiangyun Liao, Wei Cao, Wenjing Jia, Weixin Si,
- Abstract要約: 本稿では,FGMambaを提案する。FGMambaは,グローバルな依存性モデリングと細部拡張を軽量アーキテクチャに統合した,周波数対応のゲート状態空間モデルである。
本研究は,スケーラブルかつ高精度な医用画像強調のための周波数認識状態空間モデリングの有効性を検証した。
- 参考スコア(独自算出の注目度): 10.69081892501522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image super-resolution (SR) is essential for enhancing diagnostic accuracy while reducing acquisition cost and scanning time. However, modeling both long-range anatomical structures and fine-grained frequency details with low computational overhead remains challenging. We propose FGMamba, a novel frequency-aware gated state-space model that unifies global dependency modeling and fine-detail enhancement into a lightweight architecture. Our method introduces two key innovations: a Gated Attention-enhanced State-Space Module (GASM) that integrates efficient state-space modeling with dual-branch spatial and channel attention, and a Pyramid Frequency Fusion Module (PFFM) that captures high-frequency details across multiple resolutions via FFT-guided fusion. Extensive evaluations across five medical imaging modalities (Ultrasound, OCT, MRI, CT, and Endoscopic) demonstrate that FGMamba achieves superior PSNR/SSIM while maintaining a compact parameter footprint ($<$0.75M), outperforming CNN-based and Transformer-based SOTAs. Our results validate the effectiveness of frequency-aware state-space modeling for scalable and accurate medical image enhancement.
- Abstract(参考訳): 医用画像超解像(SR)は,取得コストとスキャン時間を低減しつつ診断精度を向上させるために重要である。
しかし、長距離解剖学的構造と計算オーバーヘッドの少ない細粒度周波数の詳細の両方をモデル化することは依然として困難である。
本稿では,FGMambaを提案する。FGMambaは,グローバルな依存性モデリングと細部拡張を軽量アーキテクチャに統合した,周波数対応のゲート状態空間モデルである。
提案手法では, 2分岐空間およびチャネルの注意を高効率な状態空間モデリングと統合するGASM (Gated Attention-enhanced State-Space Module) と,FFT誘導核融合により複数の解像度で高頻度の詳細を捉えるPFFM (Maraamid Frequency Fusion Module) の2つの重要なイノベーションを紹介する。
Ultrasound, OCT, MRI, CT, 内視鏡の5つの画像モダリティの広範囲な評価は、FGMambaは、コンパクトなパラメータフットプリント($0.75M)を維持しながら、優れたPSNR/SSIMを実現し、CNNベースおよびTransformerベースのSOTAよりも優れていることを示している。
本研究は,スケーラブルかつ高精度な医用画像強調のための周波数認識状態空間モデリングの有効性を検証した。
関連論文リスト
- Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - SpectMamba: Integrating Frequency and State Space Models for Enhanced Medical Image Detection [11.43227481199105]
医用画像検出用に設計された最初のMambaベースのアーキテクチャであるSpectMambaを紹介する。
SpectMambaの重要なコンポーネントはHybrid Spatial-Frequency Attention (HSFA)ブロックである。
SpectMambaは様々な医用画像検出タスクにおいて効率的かつ効率的でありながら、最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-09-01T02:56:45Z) - FaRMamba: Frequency-based learning and Reconstruction aided Mamba for Medical Segmentation [3.5790602918760586]
Vision Mambaは、グローバルな依存関係を効率的にモデル化するために、一次元の因果状態空間の再現を用いる。
パッチトークン化と1Dシリアライゼーションは、局所的なピクセル隣接性を阻害し、ローパスフィルタリング効果を課す。
2つの相補的なモジュールを通してLHICDと2D-SSDを明示的に扱う新しい拡張であるFaRMambaを提案する。
論文 参考訳(メタデータ) (2025-07-26T20:41:53Z) - Structure-Accurate Medical Image Translation via Dynamic Frequency Balance and Knowledge Guidance [60.33892654669606]
拡散モデルは,必要な医用画像を合成するための強力な戦略である。
既存のアプローチはまだ、高周波情報の過度な適合による解剖学的構造歪みの問題に悩まされている。
本稿では,動的周波数バランスと知識指導に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-13T05:48:13Z) - Delta-WKV: A Novel Meta-in-Context Learner for MRI Super-Resolution [0.7864304771129751]
我々は,メタ・イン・コンテキスト・ラーニング(MiCL)とデルタ・ルールを組み合わせた新しいMRI超解像モデルであるDelta-WKVを提案し,MRI画像の局所パターンとグローバルパターンの両方をよりよく認識する。
デルタ-WKVは既存の手法より優れており、PSNRを0.06dB、SSIMを0.001改善し、トレーニングと推論時間を15%以上削減している。
論文 参考訳(メタデータ) (2025-02-28T08:49:46Z) - FgC2F-UDiff: Frequency-guided and Coarse-to-fine Unified Diffusion Model for Multi-modality Missing MRI Synthesis [6.475175425060296]
我々は、周波数誘導および粗粒拡散モデル(FgC2F-UDiff)という新しい統合合成モデルを提案する。
論文 参考訳(メタデータ) (2025-01-07T04:42:45Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - NT-ViT: Neural Transcoding Vision Transformers for EEG-to-fMRI Synthesis [7.542742087154667]
本稿ではニューラルトランスビジョントランス(モデル名)を紹介する。
モデル名(英: modelname)は、脳波同時計測(EEG)データから高分解能機能型磁気共鳴イメージング(fMRI)サンプルを推定するために設計された生成モデルである。
論文 参考訳(メタデータ) (2024-09-18T09:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。