論文の概要: HyPCA-Net: Advancing Multimodal Fusion in Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2602.16245v1
- Date: Wed, 18 Feb 2026 07:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.542995
- Title: HyPCA-Net: Advancing Multimodal Fusion in Medical Image Analysis
- Title(参考訳): HyPCA-Net:医療画像解析におけるマルチモーダル融合の促進
- Authors: J. Dhar, M. K. Pandey, D. Chakladar, M. Haghighat, A. Alavi, S. Mistry, N. Zaidi,
- Abstract要約: ハイブリッド並列フュージョンカスケード注意ネットワーク(HyPCA-Net)を提案する。
HyPCA-Netは、2つの新しいブロックから構成される: (a) モダリティ固有の表現をキャプチャするための計算効率の良い残差適応型学習注意ブロック、(b) 多様なモダリティをまたいだ堅牢な共有表現の学習を目的としたデュアルビューカスケードアテンションブロック。
実験の結果、HyPCA-Netは既存の先行手法よりも大幅に優れており、性能は最大5.2%向上し、計算コストは最大73.1%削減された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal fusion frameworks, which integrate diverse medical imaging modalities (e.g., MRI, CT), have shown great potential in applications such as skin cancer detection, dementia diagnosis, and brain tumor prediction. However, existing multimodal fusion methods face significant challenges. First, they often rely on computationally expensive models, limiting their applicability in low-resource environments. Second, they often employ cascaded attention modules, which potentially increase risk of information loss during inter-module transitions and hinder their capacity to effectively capture robust shared representations across modalities. This restricts their generalization in multi-disease analysis tasks. To address these limitations, we propose a Hybrid Parallel-Fusion Cascaded Attention Network (HyPCA-Net), composed of two core novel blocks: (a) a computationally efficient residual adaptive learning attention block for capturing refined modality-specific representations, and (b) a dual-view cascaded attention block aimed at learning robust shared representations across diverse modalities. Extensive experiments on ten publicly available datasets exhibit that HyPCA-Net significantly outperforms existing leading methods, with improvements of up to 5.2% in performance and reductions of up to 73.1% in computational cost. Code: https://github.com/misti1203/HyPCA-Net.
- Abstract(参考訳): 多様な医用画像モダリティ(例えば、MRI、CT)を統合するマルチモーダル融合フレームワークは、皮膚がんの検出、認知症診断、脳腫瘍予測などの応用に大きな可能性を示している。
しかし、既存のマルチモーダル融合法は重大な課題に直面している。
第一に、彼らはしばしば計算コストのかかるモデルに依存し、低リソース環境における適用性を制限する。
第二に、しばしばカスケードされたアテンションモジュールを使用し、モジュール間の遷移時に情報損失のリスクを増大させ、モダリティ間の堅牢な共有表現を効果的にキャプチャする能力を妨げる可能性がある。
これにより、多相解析タスクにおける一般化が制限される。
これらの制約に対処するため,Hybrid Parallel-Fusion Cascaded Attention Network (HyPCA-Net)を提案する。
(a)洗練されたモダリティ特化表現を捉えるための計算効率の良い残差適応型学習注意ブロック、及び
b) 多様なモダリティにまたがる頑健な共有表現を学習することを目的とした二重視点の注意ブロック。
公開されている10のデータセットに対する大規模な実験では、HyPCA-Netは既存の先行する手法を著しく上回り、パフォーマンスは最大5.2%向上し、計算コストは最大73.1%削減された。
コード:https://github.com/misti1203/HyPCA-Net
関連論文リスト
- Effective and Robust Multimodal Medical Image Analysis [2.0518682437126095]
マルチモーダル・フュージョン・ラーニング(MFL)は、皮膚がんや脳腫瘍の予測といった医療問題に対処する大きな可能性を示している。
既存のMFLメソッドには3つの重要な制限がある。
本稿では,2つの要素を組み込んだMAIL(Multi-Attention Integration Learning)ネットワークを提案する。
論文 参考訳(メタデータ) (2026-02-17T04:23:46Z) - Multimodal Visual Surrogate Compression for Alzheimer's Disease Classification [69.87877580725768]
MVSC(Multimodal Visual Surrogate Compression)は、大規模な3D sMRIボリュームをコンパクトな2D機能に圧縮し、適応させることを学ぶ。
MVSCには2つの重要なコンポーネントがある: テキストガイダンスの下でグローバルなクロススライスコンテキストをキャプチャするボリュームコンテキストと、テキストエンハンスでパッチワイズな方法でスライスレベルの情報を集約するAdaptive Slice Fusionモジュール。
論文 参考訳(メタデータ) (2026-01-29T13:05:46Z) - Filling the Gaps: A Multitask Hybrid Multiscale Generative Framework for Missing Modality in Remote Sensing Semantic Segmentation [28.992992584085787]
マルチモーダル学習は、通常の単調モデルと比較して大きな性能向上を示した。
現実のシナリオでは、センサーの故障と悪天候のためにマルチモーダル信号が欠落する可能性がある。
本稿では,これらの制約に対処するために,GEMMNet(Generative-Enhanced MultiModal Learning Network)を提案する。
論文 参考訳(メタデータ) (2025-09-14T05:40:35Z) - impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - MurreNet: Modeling Holistic Multimodal Interactions Between Histopathology and Genomic Profiles for Survival Prediction [5.895727565919295]
本稿では,MurreNet(マルチモーダル表現デカップリングネットワーク)を提案する。
MurreNetはペア化された入力データをモダリティ固有表現とモダリティ共有表現に分解し、モダリティ間の冗長性を減少させる。
6つのTCGA癌コホートで行った実験は、MurreNetが生存予測において最先端(SOTA)のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-07-07T11:26:29Z) - MIND: Modality-Informed Knowledge Distillation Framework for Multimodal Clinical Prediction Tasks [50.98856172702256]
マルチモーダルモデル圧縮手法である MIND (Modality-Informed Knowledge Distillation) フレームワークを提案する。
MINDは、様々なサイズの事前訓練されたディープニューラルネットワークのアンサンブルから、より小さなマルチモーダルの学生に知識を伝達する。
時系列データと胸部X線画像を用いた2値および複数ラベルの臨床予測タスクにおけるMINDの評価を行った。
論文 参考訳(メタデータ) (2025-02-03T08:50:00Z) - Multimodal Fusion Learning with Dual Attention for Medical Imaging [8.74917075651321]
マルチモーダル・フュージョン・ラーニングは皮膚癌や脳腫瘍など様々な疾患の分類において有望である。
既存のメソッドには3つの重要な制限がある。
DRIFAは、ディープニューラルネットワークと統合することができ、DRIFA-Netと呼ばれるマルチモーダル融合学習フレームワークを形成する。
論文 参考訳(メタデータ) (2024-12-02T08:11:12Z) - HyperMM : Robust Multimodal Learning with Varying-sized Inputs [4.377889826841039]
HyperMMは、さまざまなサイズの入力で学習するために設計されたエンドツーエンドフレームワークである。
本稿では,条件付きハイパーネットワークを用いたユニバーサル特徴抽出器のトレーニング手法を提案する。
アルツハイマー病の診断と乳癌の分類の2つの課題において,本手法の利点を実験的に実証した。
論文 参考訳(メタデータ) (2024-07-30T12:13:18Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。