論文の概要: MMIF-AMIN: Adaptive Loss-Driven Multi-Scale Invertible Dense Network for Multimodal Medical Image Fusion
- arxiv url: http://arxiv.org/abs/2508.08679v1
- Date: Tue, 12 Aug 2025 06:55:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.327564
- Title: MMIF-AMIN: Adaptive Loss-Driven Multi-Scale Invertible Dense Network for Multimodal Medical Image Fusion
- Title(参考訳): MMIF-AMIN:マルチモーダル医用画像融合のための適応損失駆動型マルチスケールインバータブルデンスネットワーク
- Authors: Tao Luo, Weihua Xu,
- Abstract要約: MMIF(Multimodal Medical Image fusion)は、様々なモダリティの画像を統合して総合的な画像を作成することを目的としている。
複数のモダリティにまたがるユニークな情報と相補的な情報を同時に取得することは、MMIFにおける重要な研究課題である。
本稿では,これらの特徴を効果的に抽出できる新しいアーキテクチャを特徴とする新しい画像融合手法MMIF-AMINを提案する。
- 参考スコア(独自算出の注目度): 3.507349476832754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal medical image fusion (MMIF) aims to integrate images from different modalities to produce a comprehensive image that enhances medical diagnosis by accurately depicting organ structures, tissue textures, and metabolic information. Capturing both the unique and complementary information across multiple modalities simultaneously is a key research challenge in MMIF. To address this challenge, this paper proposes a novel image fusion method, MMIF-AMIN, which features a new architecture that can effectively extract these unique and complementary features. Specifically, an Invertible Dense Network (IDN) is employed for lossless feature extraction from individual modalities. To extract complementary information between modalities, a Multi-scale Complementary Feature Extraction Module (MCFEM) is designed, which incorporates a hybrid attention mechanism, convolutional layers of varying sizes, and Transformers. An adaptive loss function is introduced to guide model learning, addressing the limitations of traditional manually-designed loss functions and enhancing the depth of data mining. Extensive experiments demonstrate that MMIF-AMIN outperforms nine state-of-the-art MMIF methods, delivering superior results in both quantitative and qualitative analyses. Ablation experiments confirm the effectiveness of each component of the proposed method. Additionally, extending MMIF-AMIN to other image fusion tasks also achieves promising performance.
- Abstract(参考訳): MMIF(Multimodal Medical Image fusion)は、臓器構造、組織テクスチャ、代謝情報を正確に描写することで、様々なモダリティの画像を統合することで、総合的な画像を作成することを目的としている。
複数のモダリティにまたがるユニークな情報と相補的な情報を同時に取得することは、MMIFにおける重要な研究課題である。
そこで本研究では,これらの特徴を効果的に抽出できる新しいアーキテクチャであるMMIF-AMINを提案する。
Invertible Dense Network(IDN)は、個々のモダリティから損失のない特徴抽出に使用される。
マルチスケール補足的特徴抽出モジュール (MCFEM) を設計し, ハイブリットアテンション機構, 様々な大きさの畳み込み層, トランスフォーマーを組み込んだ。
モデル学習のガイドとして適応的損失関数を導入し、従来の手動設計の損失関数の制限に対処し、データマイニングの深さを高める。
MMIF-AMINは9つの最先端MMIF法より優れており、定量分析と定性解析の両方において優れた結果が得られている。
アブレーション実験により,提案手法の各成分の有効性が確認された。
さらに、MMIF-AMINを他の画像融合タスクに拡張することで、有望なパフォーマンスを実現する。
関連論文リスト
- DM-FNet: Unified multimodal medical image fusion via diffusion process-trained encoder-decoder [13.87371547830489]
マルチモーダル医用画像融合(MMIF)は複数のソース画像から最も有意義な情報を抽出する。
既存のMMIF法は、従来の訓練中に詳細な特徴を捉える能力に制限がある。
本研究では,2段階拡散モデルに基づく融合ネットワーク(DM-FNet)を提案する。
論文 参考訳(メタデータ) (2025-06-18T07:55:06Z) - Multi-modal Contrastive Learning for Tumor-specific Missing Modality Synthesis [1.4132765964347058]
臨床環境での高品質なマルチモーダルMRIは、時間的制約、高コスト、患者の運動アーチファクトが原因で困難である。
PLAVEは,腫瘍領域に焦点をあてたマルチモーダルコントラスト学習を統合したMRIの再生モデルを構築した。
脳MR画像合成の課題で得られた結果は、提案モデルが欠落したモダリティを生成するのに優れていることを示している。
論文 参考訳(メタデータ) (2025-02-26T18:34:58Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - AdaFuse: Adaptive Medical Image Fusion Based on Spatial-Frequential
Cross Attention [6.910879180358217]
本稿では,周波数誘導型アテンション機構によりマルチモーダル画像情報を適応的に融合させるAdaFuseを提案する。
提案手法は,視覚的品質と定量的指標の両方の観点から,最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-09T07:10:30Z) - Equivariant Multi-Modality Image Fusion [124.11300001864579]
エンドツーエンドの自己教師型学習のための同変多モードImAge融合パラダイムを提案する。
我々のアプローチは、自然画像応答が特定の変換に等しくなるという以前の知識に根ざしている。
実験により、EMMAは赤外線可視画像と医用画像に高品質な融合結果をもたらすことが確認された。
論文 参考訳(メタデータ) (2023-05-19T05:50:24Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。