論文の概要: Effective and Robust Multimodal Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2602.15346v1
- Date: Tue, 17 Feb 2026 04:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.979439
- Title: Effective and Robust Multimodal Medical Image Analysis
- Title(参考訳): 効果的かつロバストなマルチモーダル医用画像解析
- Authors: Joy Dhar, Nayyar Zaidi, Maryam Haghighat,
- Abstract要約: マルチモーダル・フュージョン・ラーニング(MFL)は、皮膚がんや脳腫瘍の予測といった医療問題に対処する大きな可能性を示している。
既存のMFLメソッドには3つの重要な制限がある。
本稿では,2つの要素を組み込んだMAIL(Multi-Attention Integration Learning)ネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.0518682437126095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal Fusion Learning (MFL), leveraging disparate data from various imaging modalities (e.g., MRI, CT, SPECT), has shown great potential for addressing medical problems such as skin cancer and brain tumor prediction. However, existing MFL methods face three key limitations: a) they often specialize in specific modalities, and overlook effective shared complementary information across diverse modalities, hence limiting their generalizability for multi-disease analysis; b) they rely on computationally expensive models, restricting their applicability in resource-limited settings; and c) they lack robustness against adversarial attacks, compromising reliability in medical AI applications. To address these limitations, we propose a novel Multi-Attention Integration Learning (MAIL) network, incorporating two key components: a) an efficient residual learning attention block for capturing refined modality-specific multi-scale patterns and b) an efficient multimodal cross-attention module for learning enriched complementary shared representations across diverse modalities. Furthermore, to ensure adversarial robustness, we extend MAIL network to design Robust-MAIL by incorporating random projection filters and modulated attention noise. Extensive evaluations on 20 public datasets show that both MAIL and Robust-MAIL outperform existing methods, achieving performance gains of up to 9.34% while reducing computational costs by up to 78.3%. These results highlight the superiority of our approaches, ensuring more reliable predictions than top competitors. Code: https://github.com/misti1203/MAIL-Robust-MAIL.
- Abstract(参考訳): MFL(Multimodal Fusion Learning)は、様々な画像モダリティ(例えば、MRI、CT、SPECT)から異なるデータを活用することで、皮膚がんや脳腫瘍の予測といった医療問題に対処する大きな可能性を示している。
しかし、既存のMFLメソッドには3つの制限がある。
イ 特定のモダリティを専門とし、多様なモダリティにまたがる効果的な相補的な情報を見落とし、したがって、多相分析の一般化性を制限すること。
ロ 計算コストのかかるモデルに頼り、資源制限設定の適用性を制限し、
c) 対人攻撃に対する堅牢性がなく、医療AIアプリケーションにおける信頼性を損なう。
これらの制約に対処するため、我々は2つの重要なコンポーネントを組み込んだ新しいマルチアテンション統合学習(MAIL)ネットワークを提案する。
a) 洗練されたモダリティ特有なマルチスケールパターンを捉えるための効率的な残留学習注意ブロック
b) 多様なモダリティにまたがる豊富な相補的共有表現を学習するための効率的なマルチモーダル・クロスアテンションモジュール。
さらに,敵のロバスト性を確保するため,ランダムなプロジェクションフィルタと変調されたアテンションノイズを組み込んだロバスト・マイルの設計にMAILネットワークを拡張した。
20の公開データセットに対する大規模な評価では、MAILとRobust-MAILはどちらも既存の手法より優れており、計算コストを78.3%削減し、最大9.34%のパフォーマンス向上を達成した。
これらの結果は、私たちのアプローチの優位性を強調し、上位の競合よりも信頼性の高い予測を保証します。
コード:https://github.com/misti1203/MAIL-Robust-MAIL
関連論文リスト
- Robust Multimodal Sentiment Analysis via Double Information Bottleneck [55.32835720742616]
マルチモーダル感情分析は様々な研究領域で注目されている。
既存のアプローチでは、ノイズに汚染された単調なデータの学習が不十分である。
本稿では,Double Information Bottleneck(DIB)戦略を提案する。
論文 参考訳(メタデータ) (2025-11-03T10:52:45Z) - MAESTRO : Adaptive Sparse Attention and Robust Learning for Multimodal Dynamic Time Series [7.657107258507061]
既存のマルチモーダル学習アプローチの重要な制約を克服する新しいフレームワークであるMAESTROを紹介する。
MAESTROのコアとなるのは、タスクの関連性に基づいた動的イントラモーダル相互作用とクロスモーダル相互作用である。
3つのアプリケーションにまたがる4つの多様なデータセットに基づいて,MAESTROを10のベースラインに対して評価した。
論文 参考訳(メタデータ) (2025-09-29T03:07:06Z) - Learning Contrastive Multimodal Fusion with Improved Modality Dropout for Disease Detection and Prediction [17.717216490402482]
改良されたモダリティドロップアウトとコントラスト学習を統合した,新しいマルチモーダル学習フレームワークを提案する。
疾患検出および予測タスクのための大規模臨床データセットの枠組みを検証した。
本研究は,マルチモーダル学習におけるアプローチの有効性,効率,一般化性を明らかにするものである。
論文 参考訳(メタデータ) (2025-09-22T18:12:12Z) - MIND: Modality-Informed Knowledge Distillation Framework for Multimodal Clinical Prediction Tasks [50.98856172702256]
マルチモーダルモデル圧縮手法である MIND (Modality-Informed Knowledge Distillation) フレームワークを提案する。
MINDは、様々なサイズの事前訓練されたディープニューラルネットワークのアンサンブルから、より小さなマルチモーダルの学生に知識を伝達する。
時系列データと胸部X線画像を用いた2値および複数ラベルの臨床予測タスクにおけるMINDの評価を行った。
論文 参考訳(メタデータ) (2025-02-03T08:50:00Z) - Multimodal Fusion Learning with Dual Attention for Medical Imaging [8.74917075651321]
マルチモーダル・フュージョン・ラーニングは皮膚癌や脳腫瘍など様々な疾患の分類において有望である。
既存のメソッドには3つの重要な制限がある。
DRIFAは、ディープニューラルネットワークと統合することができ、DRIFA-Netと呼ばれるマルチモーダル融合学習フレームワークを形成する。
論文 参考訳(メタデータ) (2024-12-02T08:11:12Z) - HyperMM : Robust Multimodal Learning with Varying-sized Inputs [4.377889826841039]
HyperMMは、さまざまなサイズの入力で学習するために設計されたエンドツーエンドフレームワークである。
本稿では,条件付きハイパーネットワークを用いたユニバーサル特徴抽出器のトレーニング手法を提案する。
アルツハイマー病の診断と乳癌の分類の2つの課題において,本手法の利点を実験的に実証した。
論文 参考訳(メタデータ) (2024-07-30T12:13:18Z) - Completed Feature Disentanglement Learning for Multimodal MRIs Analysis [36.32164729310868]
特徴不整合(FD)に基づく手法はマルチモーダルラーニング(MML)において大きな成功を収めた
本稿では,特徴デカップリング時に失われた情報を復元する完全特徴分散(CFD)戦略を提案する。
具体的には、CFD戦略は、モダリティ共有とモダリティ固有の特徴を識別するだけでなく、マルチモーダル入力のサブセット間の共有特徴を分離する。
論文 参考訳(メタデータ) (2024-07-06T01:49:38Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。