論文の概要: Explainable Multimodal Regression via Information Decomposition
- arxiv url: http://arxiv.org/abs/2512.22102v1
- Date: Fri, 26 Dec 2025 18:07:18 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:06:30.126119
- Title: Explainable Multimodal Regression via Information Decomposition
- Title(参考訳): 情報分解による説明可能なマルチモーダル回帰
- Authors: Zhaozhao Ma, Shujian Yu,
- Abstract要約: 部分情報分解(PID)に基づく新しい多モード回帰フレームワークを提案する。
本フレームワークは,予測精度と解釈可能性の両方において最先端の手法より優れ,効率的な推論のための情報モダリティ選択を可能にする。
- 参考スコア(独自算出の注目度): 27.157278306251772
- License:
- Abstract: Multimodal regression aims to predict a continuous target from heterogeneous input sources and typically relies on fusion strategies such as early or late fusion. However, existing methods lack principled tools to disentangle and quantify the individual contributions of each modality and their interactions, limiting the interpretability of multimodal fusion. We propose a novel multimodal regression framework grounded in Partial Information Decomposition (PID), which decomposes modality-specific representations into unique, redundant, and synergistic components. The basic PID framework is inherently underdetermined. To resolve this, we introduce inductive bias by enforcing Gaussianity in the joint distribution of latent representations and the transformed response variable (after inverse normal transformation), thereby enabling analytical computation of the PID terms. Additionally, we derive a closed-form conditional independence regularizer to promote the isolation of unique information within each modality. Experiments on six real-world datasets, including a case study on large-scale brain age prediction from multimodal neuroimaging data, demonstrate that our framework outperforms state-of-the-art methods in both predictive accuracy and interpretability, while also enabling informed modality selection for efficient inference. Implementation is available at https://github.com/zhaozhaoma/PIDReg.
- Abstract(参考訳): マルチモーダル回帰は、不均一な入力源から連続的なターゲットを予測することを目的としており、通常は早期または後期融合のような融合戦略に依存している。
しかし、既存の手法では、各モダリティとその相互作用の個々のコントリビューションをアンタングルし、定量化するための基本的なツールが欠如しており、マルチモーダル融合の解釈可能性を制限する。
部分情報分解(PID)に基づく新しい多モーダル回帰フレームワークを提案する。
基本的なPIDフレームワークは本質的に過小評価されている。
これを解決するために、潜在表現の結合分布と変換された応答変数(逆正規変換後)にガウス性を導入し、PID項の解析計算を可能にする。
さらに,各モードにおける一意情報の分離を促進するために,クローズド形式の条件付き独立正規化器を導出する。
実世界の6つのデータセットの実験では、マルチモーダル・ニューロイメージングデータによる大規模脳年齢予測のケーススタディを含む、我々のフレームワークが予測精度と解釈可能性の両方において最先端の手法より優れており、効率的な推論のための情報モダリティ選択が可能であることを実証している。
実装はhttps://github.com/zhaozhaoma/PIDReg.comで公開されている。
関連論文リスト
- FDRMFL:Multi-modal Federated Feature Extraction Model Based on Information Maximization and Contrastive Learning [4.453671369861554]
本研究では,マルチモーダルデータ回帰における特徴抽出問題に焦点をあてる。
実世界のシナリオでは、制限と非IIDデータ、マルチモーダル情報の効果的な抽出と融合、モデル学習における破滅的な忘れ込みへの感受性の3つの課題に対処する。
論文 参考訳(メタデータ) (2025-11-30T17:13:35Z) - Calibrated Multimodal Representation Learning with Missing Modalities [100.55774771852468]
マルチモーダル表現学習は、それらを統一潜在空間に整列させることにより、異なるモダリティを調和させる。
最近の研究は、従来のクロスモーダルアライメントを一般化して、強化されたマルチモーダル・シナジーを生成するが、すべてのモダリティを共通の例に含める必要がある。
我々は、アンカーシフトの観点から、この問題に関する理論的洞察を提供する。
モーダルの欠如に起因する不完全なアライメントを校正するために,マルチモーダル表現学習のためのCalMRLを提案する。
論文 参考訳(メタデータ) (2025-11-15T05:01:43Z) - A Flow Model with Low-Rank Transformers for Incomplete Multimodal Survival Analysis [36.102030480314816]
本稿では,低ランクトランスフォーマーとフローベース生成モデルを組み合わせた,堅牢かつ柔軟なマルチモーダルサバイバル予測手法を提案する。
提案手法は, 完全モダリティ条件下での最先端性能を実現するだけでなく, 不完全モダリティシナリオ下での堅牢かつ優れた精度も維持する。
論文 参考訳(メタデータ) (2025-10-22T02:27:05Z) - Partial Information Decomposition via Normalizing Flows in Latent Gaussian Distributions [24.013410583573318]
ガウスPID(GPID)の計算効率を大幅に向上する勾配に基づく新しいアルゴリズムを提案する。
提案手法は,既存のベースラインよりも高精度で効率的なPID推定方法を提供する。
我々は、マルチモーダルデータセットにおけるPIDの定量化の現実的な応用において、その有用性を示すために、大規模マルチモーダルベンチマークのシリーズを評価した。
論文 参考訳(メタデータ) (2025-10-06T01:08:34Z) - Generalized Multimodal Fusion via Poisson-Nernst-Planck Equation [5.022049774600693]
本稿では,Poisson-Nernst-Planck(PNP)方程式を用いた一般化多モード融合法(GMF)を提案する。
提案したGMFは,より少ないパラメータと計算資源を生かしながら,最先端(SOTA)の精度に近い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-20T19:15:28Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Quantifying & Modeling Multimodal Interactions: An Information
Decomposition Framework [89.8609061423685]
本稿では,入力モーダル性と出力タスクを関連付けた冗長性,特異性,シナジーの度合いを定量化する情報理論手法を提案する。
PID推定を検証するために、PIDが知られている合成データセットと大規模マルチモーダルベンチマークの両方で広範な実験を行う。
本研究では,(1)マルチモーダルデータセット内の相互作用の定量化,(2)マルチモーダルモデルで捉えた相互作用の定量化,(3)モデル選択の原理的アプローチ,(4)実世界のケーススタディの3つにその有用性を示す。
論文 参考訳(メタデータ) (2023-02-23T18:59:05Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。