論文の概要: Quantifying & Modeling Feature Interactions: An Information
Decomposition Framework
- arxiv url: http://arxiv.org/abs/2302.12247v1
- Date: Thu, 23 Feb 2023 18:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 13:53:08.351547
- Title: Quantifying & Modeling Feature Interactions: An Information
Decomposition Framework
- Title(参考訳): 機能相互作用の定量化とモデル化:情報分解フレームワーク
- Authors: Paul Pu Liang, Yun Cheng, Xiang Fan, Chun Kai Ling, Suzanne Nie,
Richard Chen, Zihao Deng, Faisal Mahmood, Ruslan Salakhutdinov,
Louis-Philippe Morency
- Abstract要約: 本稿では,入力特徴間の冗長性,特異性,シナジーの程度を定量化する情報理論手法を提案する。
高次元分布にスケールする2つの新しい推定器を用いて、マルチモーダルデータセット内の相互作用の定量化に有用であることを示す。
合成データセットとPID推定がこれまで不可能であった大規模マルチモーダルベンチマークの両方について広範な実験を行った。
- 参考スコア(独自算出の注目度): 100.8819072610861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent explosion of interest in multimodal applications has resulted in a
wide selection of datasets and methods for representing and integrating
information from different signals. Despite these empirical advances, there
remain fundamental research questions: how can we quantify the nature of
interactions that exist among input features? Subsequently, how can we capture
these interactions using suitable data-driven methods? To answer this question,
we propose an information-theoretic approach to quantify the degree of
redundancy, uniqueness, and synergy across input features, which we term the
PID statistics of a multimodal distribution. Using 2 newly proposed estimators
that scale to high-dimensional distributions, we demonstrate their usefulness
in quantifying the interactions within multimodal datasets, the nature of
interactions captured by multimodal models, and principled approaches for model
selection. We conduct extensive experiments on both synthetic datasets where
the PID statistics are known and on large-scale multimodal benchmarks where PID
estimation was previously impossible. Finally, to demonstrate the real-world
applicability of our approach, we present three case studies in pathology, mood
prediction, and robotic perception where our framework accurately recommends
strong multimodal models for each application.
- Abstract(参考訳): 近年のマルチモーダルアプリケーションへの関心の高まりにより、様々な信号から情報を表現・統合するためのデータセットや手法が広く選択された。
このような経験的な進歩にもかかわらず、基本的な研究課題が残されている: 入力特徴の間に存在する相互作用の性質をどのように定量化できるか?
その後、適切なデータ駆動メソッドを使用して、これらのインタラクションを捉えるにはどうすればよいのか?
そこで本研究では,多モード分布のPID統計量(PID)と呼ぶ,入力特徴間の冗長性,特異性,シナジーの程度を定量化する情報理論手法を提案する。
高次元分布にスケールする2つの新しい推定器を用いて、マルチモーダルデータセット内の相互作用の定量化、マルチモーダルモデルによる相互作用の性質、モデル選択の原理的アプローチを実証する。
我々は、PID統計が知られている合成データセットと、PID推定がこれまで不可能であった大規模マルチモーダルベンチマークの両方について広範な実験を行った。
最後に,本手法の現実世界への適用性を示すために,病理学,ムード予測,ロボット知覚の3つのケーススタディを提示し,それぞれのアプリケーションに対して強力なマルチモーダルモデルを正確に推奨する。
関連論文リスト
- HEMM: Holistic Evaluation of Multimodal Foundation Models [91.60364024897653]
マルチモーダル・ファンデーション・モデルは、画像、ビデオ、オーディオ、その他の知覚モダリティと共にテキストをホリスティックに処理することができる。
モデリング決定、タスク、ドメインの範囲を考えると、マルチモーダル基盤モデルの進歩を特徴づけ、研究することは困難である。
論文 参考訳(メタデータ) (2024-07-03T18:00:48Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - Multimodal Learning Without Labeled Multimodal Data: Guarantees and Applications [90.6849884683226]
ラベル付き単調データのみを用いた半教師付き環境における相互作用定量化の課題について検討する。
相互作用の正確な情報理論的定義を用いて、我々の重要な貢献は下界と上界の導出である。
本稿では、これらの理論結果を用いてマルチモーダルモデルの性能を推定し、データ収集をガイドし、様々なタスクに対して適切なマルチモーダルモデルを選択する方法について述べる。
論文 参考訳(メタデータ) (2023-06-07T15:44:53Z) - Few-shot Multimodal Sentiment Analysis based on Multimodal Probabilistic
Fusion Prompts [30.15646658460899]
ソーシャルメディア上でのマルチモーダルコンテンツの普及により,マルチモーダル感情分析が注目されている。
この地域の既存の研究は、大規模に監督されたデータに大きく依存している。
マルチモーダルな感情検出のために,様々なモーダルから多様な手がかりを生かしたマルチモーダル確率核融合法(MultiPoint)を提案する。
論文 参考訳(メタデータ) (2022-11-12T08:10:35Z) - Generalized Product-of-Experts for Learning Multimodal Representations
in Noisy Environments [18.14974353615421]
本稿では,エキスパート手法の一般化による雑音環境下でのマルチモーダル表現学習手法を提案する。
提案手法では,モダリティ毎に異なるネットワークをトレーニングし,そのモダリティから得られる情報の信頼性を評価する。
マルチモーダル3Dハンドプレース推定とマルチモーダル手術ビデオセグメンテーションという,2つの挑戦的なベンチマークで最先端のパフォーマンスを得た。
論文 参考訳(メタデータ) (2022-11-07T14:27:38Z) - SHAPE: An Unified Approach to Evaluate the Contribution and Cooperation
of Individual Modalities [7.9602600629569285]
我々は,bf SHapley vbf Alue-based bf PErceptual (SHAPE) スコアを用いて,個々のモダリティの限界寄与度とモダリティ間の協調度を測定する。
我々の実験は、異なるモジュラリティが相補的なタスクに対して、マルチモーダルモデルは依然として支配的なモダリティのみを使用する傾向があることを示唆している。
我々のスコアは、現在のマルチモーダルモデルが様々なモダリティでどのように動作するかを理解するのに役立ち、複数のモダリティを統合するためのより洗練された方法を促進することを願っている。
論文 参考訳(メタデータ) (2022-04-30T16:35:40Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Self-Supervised Multimodal Domino: in Search of Biomarkers for
Alzheimer's Disease [19.86082635340699]
自己監督型表現学習アルゴリズムを編成する合理的な方法の分類法を提案する。
まず,おもちゃのマルチモーダルMNISTデータセットのモデルを評価し,アルツハイマー病患者を用いたマルチモーダル・ニューロイメージングデータセットに適用した。
提案手法は,従来の自己教師付きエンコーダデコーダ法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:28:13Z) - Relating by Contrasting: A Data-efficient Framework for Multimodal
Generative Models [86.9292779620645]
生成モデル学習のための対照的なフレームワークを開発し、モダリティ間の共通性だけでなく、「関連」と「関連しない」マルチモーダルデータの区別によってモデルを訓練することができる。
提案手法では, 生成モデルを用いて, 関係のないサンプルから関連サンプルを正確に識別し, ラベルのない多モードデータの利用が可能となる。
論文 参考訳(メタデータ) (2020-07-02T15:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。