論文の概要: Causal disentanglement of multimodal data
- arxiv url: http://arxiv.org/abs/2310.18471v2
- Date: Wed, 8 Nov 2023 18:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 18:31:24.997757
- Title: Causal disentanglement of multimodal data
- Title(参考訳): マルチモーダルデータの因果的絡み合い
- Authors: Elise Walker, Jonas A. Actor, Carianne Martinez, and Nathaniel Trask
- Abstract要約: 因果関係を持つ重要な特徴を発見するために,マルチモーダルデータと既知の物理を利用する因果表現学習アルゴリズム(causalPIMA)を導入する。
本研究は,完全教師なし環境下で重要な特徴を同時に発見しながら,解釈可能な因果構造を学習する能力を示すものである。
- 参考スコア(独自算出の注目度): 1.589226862328831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal representation learning algorithms discover lower-dimensional
representations of data that admit a decipherable interpretation of cause and
effect; as achieving such interpretable representations is challenging, many
causal learning algorithms utilize elements indicating prior information, such
as (linear) structural causal models, interventional data, or weak supervision.
Unfortunately, in exploratory causal representation learning, such elements and
prior information may not be available or warranted. Alternatively, scientific
datasets often have multiple modalities or physics-based constraints, and the
use of such scientific, multimodal data has been shown to improve
disentanglement in fully unsupervised settings. Consequently, we introduce a
causal representation learning algorithm (causalPIMA) that can use multimodal
data and known physics to discover important features with causal
relationships. Our innovative algorithm utilizes a new differentiable
parametrization to learn a directed acyclic graph (DAG) together with a latent
space of a variational autoencoder in an end-to-end differentiable framework
via a single, tractable evidence lower bound loss function. We place a Gaussian
mixture prior on the latent space and identify each of the mixtures with an
outcome of the DAG nodes; this novel identification enables feature discovery
with causal relationships. Tested against a synthetic and a scientific dataset,
our results demonstrate the capability of learning an interpretable causal
structure while simultaneously discovering key features in a fully unsupervised
setting.
- Abstract(参考訳): 因果表現学習アルゴリズムは、原因と効果の解読可能な解釈を認めるデータの低次元表現を発見し、そのような解釈可能な表現を達成することは困難であるため、多くの因果学習アルゴリズムは、(線形)構造因果モデル、介入データ、弱い監督といった先行情報を示す要素を利用する。
残念ながら、探索的因果表現学習では、そのような要素や事前情報は利用できないか、保証されない。
あるいは、科学データセットは、しばしば複数のモーダル性または物理に基づく制約を持ち、そのような科学的マルチモーダルデータを使用することで、完全に教師なしの環境での絡み合いを改善することが示されている。
その結果,因果関係を持つ重要な特徴の発見にマルチモーダルデータと既知の物理を利用する因果表現学習アルゴリズム (causalPIMA) を導入した。
我々の革新的アルゴリズムは、新しい微分可能パラメトリゼーションを用いて、有向非巡回グラフ(DAG)と変分オートエンコーダの潜在空間を、単一の有界損失関数を導出して、エンドツーエンドの微分可能フレームワークで学習する。
我々は,潜伏空間上にガウス混合体を配置し,それぞれの混合体をDAGノードの結果と同一視し,因果関係を持つ特徴発見を可能にする。
本研究は, 合成および科学的データセットを用いて, 解析可能な因果構造を学習すると同時に, 教師なし環境において重要な特徴を同時に発見できることを実証した。
関連論文リスト
- Learning to refine domain knowledge for biological network inference [2.209921757303168]
摂動実験により、生物学者は興味のある変数間の因果関係を発見することができる。
これらのデータの空間性と高次元性は因果構造学習アルゴリズムに重大な課題をもたらす。
そこで本研究では,データ観測に基づくドメイン知識の補修アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-18T12:53:23Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Multi-granularity Causal Structure Learning [23.125497987255237]
本研究では,まずスパースオートエンコーダを利用して粗粒化戦略と因果抽象化を探索するMgCSL(Multi-granularity Causal Structure Learning)を開発した。
MgCSLはマルチグラニュラリティ変数を入力として、多層パーセプトロンを訓練し、変数間の因果関係を探索する。
実験の結果,MgCSLは競争ベースラインより優れており,fMRIデータセット上の因果関係が説明できることがわかった。
論文 参考訳(メタデータ) (2023-12-09T11:35:25Z) - Heteroscedastic Causal Structure Learning [2.566492438263125]
ガウス雑音下での不連続因果構造学習問題に取り組む。
因果的機構の正常性を利用して、有効な因果的順序付けを復元することができる。
その結果,単純な因果構造学習アルゴリズムHOST (Heteroscedastic causal STructure Learning) が得られた。
論文 参考訳(メタデータ) (2023-07-16T07:53:16Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Consistency of mechanistic causal discovery in continuous-time using
Neural ODEs [85.7910042199734]
ダイナミカルシステムの研究において,連続時間における因果的発見を検討する。
本稿では,ニューラルネットワークを用いた因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-06T08:48:02Z) - Causal Discovery from Incomplete Data: A Deep Learning Approach [21.289342482087267]
因果構造探索と因果構造探索を反復的に行うために, 因果学習を提案する。
ICLは、異なるデータメカニズムで最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-15T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。