論文の概要: Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2107.00848v1
- Date: Fri, 2 Jul 2021 05:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 13:00:57.414897
- Title: Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning
- Title(参考訳): 視覚モデルに基づく強化学習における因果発見の体系的評価
- Authors: Nan Rosemary Ke, Aniket Didolkar, Sarthak Mittal, Anirudh Goyal,
Guillaume Lajoie, Stefan Bauer, Danilo Rezende, Yoshua Bengio, Michael Mozer,
Christopher Pal
- Abstract要約: AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
- 参考スコア(独自算出の注目度): 76.00395335702572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inducing causal relationships from observations is a classic problem in
machine learning. Most work in causality starts from the premise that the
causal variables themselves are observed. However, for AI agents such as robots
trying to make sense of their environment, the only observables are low-level
variables like pixels in images. To generalize well, an agent must induce
high-level variables, particularly those which are causal or are affected by
causal variables. A central goal for AI and causality is thus the joint
discovery of abstract representations and causal structure. However, we note
that existing environments for studying causal induction are poorly suited for
this objective because they have complicated task-specific causal graphs which
are impossible to manipulate parametrically (e.g., number of nodes, sparsity,
causal chain length, etc.). In this work, our goal is to facilitate research in
learning representations of high-level variables as well as causal structures
among them. In order to systematically probe the ability of methods to identify
these variables and structures, we design a suite of benchmarking RL
environments. We evaluate various representation learning algorithms from the
literature and find that explicitly incorporating structure and modularity in
models can help causal induction in model-based reinforcement learning.
- Abstract(参考訳): 観察から因果関係を誘導することは機械学習の古典的な問題である。
ほとんどの因果関係の研究は、因果変数自体が観察されるという前提から始まる。
しかし、ロボットのようなAIエージェントが環境を理解しようとする場合、観測可能な変数は画像中のピクセルのような低レベル変数のみである。
適切に一般化するには、エージェントは高レベルの変数、特に因果変数に影響を受ける変数を誘導する必要がある。
aiと因果関係の中心的な目標は、抽象表現と因果構造の共同発見である。
しかし,因果誘導を研究する既存の環境は,パラメトリックに操作できない複雑なタスク固有の因果グラフ(ノード数,スパーシティ,因果連鎖長など)を持っているため,この目的には適さない。
本研究の目的は,高レベル変数の表現とそれらの間の因果構造を学ぶ研究を促進することである。
これらの変数や構造を同定する手法を体系的に探索するために,我々はRL環境のベンチマークスイートを設計する。
本研究は,様々な表現学習アルゴリズムを文献から評価し,モデルに構造とモジュラリティを明示的に組み込むことが,モデルに基づく強化学習における因果的帰納に役立つことを見出した。
関連論文リスト
- Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Learning Latent Structural Causal Models [31.686049664958457]
機械学習タスクでは、画像ピクセルや高次元ベクトルのような低レベルのデータを扱うことが多い。
本稿では,潜在構造因果モデルの因果変数,構造,パラメータについて共同推論を行う,抽出可能な近似推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T20:09:44Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Do-calculus enables causal reasoning with latent variable models [2.294014185517203]
潜在変数モデル(LVM)は、トレーニング中に変数の一部が隠蔽される確率モデルである。
因果推論は,確率的モデリングコミュニティで長年確立されてきた幅広いlvmのクラスを拡張できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:12:53Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。