論文の概要: CITRIS: Causal Identifiability from Temporal Intervened Sequences
- arxiv url: http://arxiv.org/abs/2202.03169v1
- Date: Mon, 7 Feb 2022 13:55:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 22:16:22.808682
- Title: CITRIS: Causal Identifiability from Temporal Intervened Sequences
- Title(参考訳): CITRIS:時間的介在配列の因果同定可能性
- Authors: Phillip Lippe, Sara Magliacane, Sindy L\"owe, Yuki M. Asano, Taco
Cohen, Efstratios Gavves
- Abstract要約: 画像の時間的シーケンスから因果表現を学習する変分自動エンコーダフレームワークであるCITRISを提案する。
3Dレンダリング画像シーケンスの実験では、CITRISは根底にある因果変数を復元する従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 36.358968799947924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the latent causal factors of a dynamical system from visual
observations is a crucial step towards agents reasoning in complex
environments. In this paper, we propose CITRIS, a variational autoencoder
framework that learns causal representations from temporal sequences of images
in which underlying causal factors have possibly been intervened upon. In
contrast to the recent literature, CITRIS exploits temporality and observing
intervention targets to identify scalar and multidimensional causal factors,
such as 3D rotation angles. Furthermore, by introducing a normalizing flow,
CITRIS can be easily extended to leverage and disentangle representations
obtained by already pretrained autoencoders. Extending previous results on
scalar causal factors, we prove identifiability in a more general setting, in
which only some components of a causal factor are affected by interventions. In
experiments on 3D rendered image sequences, CITRIS outperforms previous methods
on recovering the underlying causal variables. Moreover, using pretrained
autoencoders, CITRIS can even generalize to unseen instantiations of causal
factors, opening future research areas in sim-to-real generalization for causal
representation learning.
- Abstract(参考訳): 視覚観察から力学系の潜在因果因子を理解することは、複雑な環境においてエージェントを推論するための重要なステップである。
本稿では,因果的要因が絡み合っている可能性のある画像の時間的シーケンスから因果的表現を学習する変分自動エンコーダフレームワークであるCITRISを提案する。
最近の文献とは対照的に、シトリスは3次元回転角などのスカラーおよび多次元因果因子を同定するために、時間的および観察的介入目標を活用している。
さらに、正規化フローを導入することで、CITRISを拡張して、すでに事前訓練済みのオートエンコーダによって得られた表現を活用およびアンタングル化することができる。
スカラー因果因子に関するこれまでの結果を拡張して,因果因子の一部のみが介入によって影響を受けるような,より一般的な設定で識別可能であることを証明した。
3Dレンダリング画像シーケンスの実験では、CITRISは根底にある因果変数を復元する従来の手法よりも優れていた。
さらに、事前訓練されたオートエンコーダを用いて、CITRISは因果的要因の未確認インスタンス化を一般化し、因果的表現学習のためのsim-to-real一般化における将来の研究領域を開くことができる。
関連論文リスト
- Targeted Reduction of Causal Models [55.11778726095353]
因果表現学習(Causal Representation Learning)は、シミュレーションで解釈可能な因果パターンを明らかにするための有望な道を提供する。
本稿では、複雑な相互作用可能なモデルを因果因子の簡潔な集合に凝縮する方法であるTCR(Targeted Causal Reduction)を紹介する。
複雑なモデルから解釈可能な高レベルな説明を生成する能力は、玩具や機械システムで実証されている。
論文 参考訳(メタデータ) (2023-11-30T15:46:22Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Learning Causally Disentangled Representations via the Principle of Independent Causal Mechanisms [17.074858228123706]
本稿では、因果関係の観測ラベルによって教師される因果関係の非絡み合い表現を学習するための枠組みを提案する。
この枠組みは, 極めて不整合な因果関係を生じさせ, 介入の堅牢性を向上し, 反事実発生と相容れないことを示す。
論文 参考訳(メタデータ) (2023-06-02T00:28:48Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - iCITRIS: Causal Representation Learning for Instantaneous Temporal
Effects [36.358968799947924]
因果表現学習は、基礎となる因果変数とその関係を高次元観測から識別するタスクである。
時間的シーケンスにおける瞬時効果を処理できる因果表現学習法iCITRISを提案する。
3つのビデオデータセットの実験において、iCITRISは因果因子とその因果グラフを正確に識別する。
論文 参考訳(メタデータ) (2022-06-13T13:56:40Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Verifying the Causes of Adversarial Examples [5.381050729919025]
ニューラルネットワークのロバスト性は、入力に対するほとんど知覚できない摂動を含む敵の例によって挑戦される。
本稿では,敵対的事例の潜在的な原因の収集と,慎重に設計された制御実験による検証(あるいは部分的に検証)を行う。
実験の結果, 幾何学的要因はより直接的な原因であり, 統計的要因は現象を増大させることが明らかとなった。
論文 参考訳(メタデータ) (2020-10-19T16:17:20Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。