論文の概要: TriFusion-SR: Joint Tri-Modal Medical Image Fusion and SR
- arxiv url: http://arxiv.org/abs/2603.09702v1
- Date: Tue, 10 Mar 2026 14:13:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.373859
- Title: TriFusion-SR: Joint Tri-Modal Medical Image Fusion and SR
- Title(参考訳): TriFusion-SR: Tri-Modal Medical Image Fusion and SR
- Authors: Fayaz Ali Dharejo, Sharif S. M. A., Aiman Khalil, Nachiket Chaudhary, Rizwan Ali Naqvi, Radu Timofte,
- Abstract要約: 多モード医用画像融合は相補的構造情報と機能情報を集約することにより包括的診断を容易にする。
既存のアプローチは通常、画像融合と超解像(SR)を別々の段階で実行し、アーティファクトと知覚品質を劣化させる。
本稿では,TriFusionSRを提案する。TriFusionSRはウェーブレット誘導型三モード融合とSRのための条件拡散フレームワークである。
- 参考スコア(独自算出の注目度): 42.84193423224821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal medical image fusion facilitates comprehensive diagnosis by aggregating complementary structural and functional information, but its effectiveness is limited by resolution degradation and modality discrepancies. Existing approaches typically perform image fusion and super-resolution (SR) in separate stages, leading to artifacts and degraded perceptual quality. These limitations are further amplified in tri-modal settings that combine anatomical modalities (e.g., MRI, CT) with functional scans (e.g., PET, SPECT) due to pronounced frequency domain imbalances. We propose TriFusionSR, a wavelet-guided conditional diffusion framework for joint tri-modal fusion and SR. The framework explicitly decomposes multimodal features into frequency bands using the 2D Discrete Wavelet Transform, enabling frequency-aware crossmodal interaction. We further introduce a Rectified Wavelet Features (RWF) strategy for latent coefficient calibration, followed by an Adaptive Spatial-Frequency Fusion (ASFF) module with gated channel-spatial attention to enable structure-driven multimodal refinement. Extensive experiments demonstrate state-of-the-art performance, achieving 4.8-12.4% PSNR improvement and substantial reductions in RMSE and LPIPS across multiple upsampling scales.
- Abstract(参考訳): 多モード医用画像融合は相補的構造情報と機能情報を集約することにより包括的診断を容易にするが、その効果は分解分解能の低下とモダリティの相違によって制限される。
既存のアプローチは通常、画像融合と超解像(SR)を別々の段階で実行し、アーティファクトと知覚品質を劣化させる。
これらの制限は、解剖学的モダリティ(例:MRI、CT)と機能的スキャン(例:PET、SPECT)を組み合わせたトリモーダル設定でさらに増幅される。
本稿では,TriFusionSRを提案する。TriFusionSRはウェーブレット誘導型三モード融合とSRのための条件拡散フレームワークである。
このフレームワークは2次元離散ウェーブレット変換を用いて、マルチモーダル特徴を周波数帯域に明示的に分解し、周波数対応のクロスモーダル相互作用を可能にする。
さらに、遅延係数キャリブレーションのためのRectified Wavelet Features (RWF) 戦略を導入し、さらにアダプティブ空間周波数フュージョン (ASFF) モジュールをゲートチャネル空間の注意で導入し、構造駆動型マルチモーダルリファインメントを実現する。
大規模な実験では、最先端の性能を示し、4.8-12.4%のPSNR改善、RMSEとLPIPSを複数のアップサンプリングスケールで大幅に削減した。
関連論文リスト
- Frequency Error-Guided Under-sampling Optimization for Multi-Contrast MRI Reconstruction [24.246450246745905]
マルチコントラストMRIは,完全サンプリング参照スキャンからの補完情報を活用することで,有望な方向として現れる。
既存のアプローチには,(1)表面的参照融合戦略,(2)参照コントラストによって提供される補完情報の不十分な利用,(3)固定アンダーサンプリングパターンの3つの大きな制限がある。
本稿では,これらの問題に対処するための,効率よく解釈可能な周波数誤差誘導再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-14T09:40:34Z) - Rethinking Diffusion Model-Based Video Super-Resolution: Leveraging Dense Guidance from Aligned Features [51.5076190312734]
ビデオ超解法アプローチは、エラーの蓄積、空間的アーティファクト、知覚的品質と忠実さのトレードオフに悩まされる。
ビデオ超解像(DGAF-VSR)に適した特徴を持つ新しい誘導拡散モデルを提案する。
合成および実世界のデータセットの実験では、DGAF-VSRがVSRの重要な側面において最先端の手法を超越していることが示されている。
論文 参考訳(メタデータ) (2025-11-21T03:40:45Z) - 3D Wavelet Latent Diffusion Model for Whole-Body MR-to-CT Modality Translation [13.252652406393205]
既存の全身画像のためのMR-to-CT法では、生成したCT画像と入力したMR画像との空間的アライメントが低くなることが多い。
本稿では,これらの制約に対処する新しい3次元ウェーブレット遅延拡散モデル(3D-WLDM)を提案する。
エンコーダ・デコーダアーキテクチャにWavelet Residual Moduleを組み込むことで,画像空間と潜伏空間をまたいだ微細な特徴の捕捉と再構築が促進される。
論文 参考訳(メタデータ) (2025-07-14T06:17:05Z) - PAD: Phase-Amplitude Decoupling Fusion for Multi-Modal Land Cover Classification [49.37555541088792]
位相振幅デカップリング(PAD)は、位相(モダリティ共有)と振幅(モダリティ補完)を分離する周波数対応のフレームワークである。
この研究は、リモートセンシングにおける物理を意識したマルチモーダル融合の新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2025-04-27T07:21:42Z) - FgC2F-UDiff: Frequency-guided and Coarse-to-fine Unified Diffusion Model for Multi-modality Missing MRI Synthesis [6.475175425060296]
我々は、周波数誘導および粗粒拡散モデル(FgC2F-UDiff)という新しい統合合成モデルを提案する。
論文 参考訳(メタデータ) (2025-01-07T04:42:45Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - AdaFuse: Adaptive Medical Image Fusion Based on Spatial-Frequential
Cross Attention [6.910879180358217]
本稿では,周波数誘導型アテンション機構によりマルチモーダル画像情報を適応的に融合させるAdaFuseを提案する。
提案手法は,視覚的品質と定量的指標の両方の観点から,最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-09T07:10:30Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。