論文の概要: Disentanglement in Implicit Causal Models via Switch Variable
- arxiv url: http://arxiv.org/abs/2402.11124v1
- Date: Fri, 16 Feb 2024 23:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:12:16.389409
- Title: Disentanglement in Implicit Causal Models via Switch Variable
- Title(参考訳): スイッチ変数による暗黙因果モデルの絡み合い
- Authors: Shayan Shirahmad Gale Bagi and Zahra Gharaee and Oliver Schulte and
Mark Crowley
- Abstract要約: 観察データと介入データから因果表現を学習するには、暗黙の潜伏因果表現学習が必要である。
本稿では,ソフト介入による変分オートエンコーダフレームワークにおける暗黙の潜時因果表現学習に取り組む。
- 参考スコア(独自算出の注目度): 12.967324829026264
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning causal representations from observational and interventional data in
the absence of known ground-truth graph structures necessitates implicit latent
causal representation learning. Implicitly learning causal mechanisms typically
involves two categories of interventional data: hard and soft interventions. In
real-world scenarios, soft interventions are often more realistic than hard
interventions, as the latter require fully controlled environments. Unlike hard
interventions, which directly force changes in a causal variable, soft
interventions exert influence indirectly by affecting the causal mechanism. In
this paper, we tackle implicit latent causal representation learning in a
Variational Autoencoder (VAE) framework through soft interventions. Our
approach models soft interventions effects by employing a causal mechanism
switch variable designed to toggle between different causal mechanisms. In our
experiments, we consistently observe improved learning of identifiable, causal
representations, compared to baseline approaches.
- Abstract(参考訳): 既知の接地グラフ構造が存在しない場合の観察的および介入的データからの因果表現の学習は、暗黙的潜在因果表現学習を必要とする。
因果的な学習機構は通常、ハードとソフトの介入という2つの介入データを含む。
現実のシナリオでは、ソフト介入はハード介入よりも現実的であり、後者は完全に制御された環境を必要とする。
因果変化を直接強制するハード介入とは異なり、ソフト介入は因果機構に影響を与えることによって間接的に影響を与える。
本稿では,変分オートエンコーダ(VAE)フレームワークにおけるソフト介入による暗黙の潜時因果表現学習に取り組む。
提案手法は,異なる因果機構を切り替えるためのスイッチ変数を用いてソフト介入効果をモデル化する。
実験では,ベースラインアプローチと比較して,同定可能な因果表現の学習の改善を一貫して観察した。
関連論文リスト
- Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Learning Causally Disentangled Representations via the Principle of
Independent Causal Mechanisms [18.318692567104378]
本稿では、因果関係の観測ラベルによって教師される因果関係の非絡み合い表現を学習するための枠組みを提案する。
この枠組みは, 極めて不整合な因果関係を生じさせ, 介入の堅牢性を向上し, 反事実発生と相容れないことを示す。
論文 参考訳(メタデータ) (2023-06-02T00:28:48Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Disentangling Causal Effects from Sets of Interventions in the Presence
of Unobserved Confounders [19.32843499761667]
我々は,観察データと介入セットの両方から,単一介入の効果を学習することを目的とする。
異なるレシスタンスからデータをプールすることで因果モデルパラメータを学習するアルゴリズムを提案する。
本手法の有効性は,合成データと実世界のデータの両方で実証的に実証された。
論文 参考訳(メタデータ) (2022-10-11T13:42:36Z) - Towards a Grounded Theory of Causation for Embodied AI [12.259552039796027]
既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
論文 参考訳(メタデータ) (2022-06-28T12:56:43Z) - Differentiable Causal Discovery Under Latent Interventions [3.867363075280544]
最近の研究は、介入した変数が未知であっても、勾配に基づく手法による介入データを活用することにより因果発見の有望な結果を示している。
複数の介入分布と1つの観察分布からサンプリングされた広範囲なデータセットを用いたシナリオを想定するが、どの分布がそれぞれのサンプルに由来するのか、どのように介入がシステムに影響を及ぼすのかはわからない。
本稿では、ニューラルネットワークと変分推論に基づいて、無限混合物間の共用因果グラフを学習することで、このシナリオに対処する手法を提案する。
論文 参考訳(メタデータ) (2022-03-04T14:21:28Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。