論文の概要: Towards a Grounded Theory of Causation for Embodied AI
- arxiv url: http://arxiv.org/abs/2206.13973v1
- Date: Tue, 28 Jun 2022 12:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:28:51.479310
- Title: Towards a Grounded Theory of Causation for Embodied AI
- Title(参考訳): 具体化aiの基盤的因果理論に向けて
- Authors: Taco Cohen
- Abstract要約: 既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
- 参考スコア(独自算出の注目度): 12.259552039796027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There exist well-developed frameworks for causal modelling, but these require
rather a lot of human domain expertise to define causal variables and perform
interventions. In order to enable autonomous agents to learn abstract causal
models through interactive experience, the existing theoretical foundations
need to be extended and clarified. Existing frameworks give no guidance
regarding variable choice / representation, and more importantly, give no
indication as to which behaviour policies or physical transformations of state
space shall count as interventions. The framework sketched in this paper
describes actions as transformations of state space, for instance induced by an
agent running a policy. This makes it possible to describe in a uniform way
both transformations of the micro-state space and abstract models thereof, and
say when the latter is veridical / grounded / natural. We then introduce
(causal) variables, define a mechanism as an invariant predictor, and say when
an action can be viewed as a ``surgical intervention'', thus bringing the
objective of causal representation & intervention skill learning into clearer
focus.
- Abstract(参考訳): 因果モデリングのフレームワークは十分に開発されているが、因果変数を定義し介入を行うためには、人間ドメインの専門知識がかなり必要である。
対話的な経験を通じて抽象因果モデルを学習するためには、既存の理論基盤を拡張し、明確化する必要がある。
既存のフレームワークは、可変選択/表現に関するガイダンスを提供しておらず、さらに重要なことは、状態空間の振る舞いポリシーや物理的変換が介入として数えられるかを示すものではない。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができ、後者が検証的/接地/自然であることを言う。
次に, (causal) 変数を導入し, 機構を不変予測器として定義し, 行動が'サージカル介入'と見なせる場合について述べることにより, 因果表現と介入スキル学習の目的をより明確にした。
関連論文リスト
- Hierarchical Invariance for Robust and Interpretable Vision Tasks at
Larger Scales [58.046982315688275]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Disentanglement in Implicit Causal Models via Switch Variable [12.967324829026264]
観察データと介入データから因果表現を学習するには、暗黙の潜伏因果表現学習が必要である。
本稿では,ソフト介入による変分オートエンコーダフレームワークにおける暗黙の潜時因果表現学習に取り組む。
論文 参考訳(メタデータ) (2024-02-16T23:17:00Z) - Inverse Decision Modeling: Learning Interpretable Representations of
Behavior [72.80902932543474]
我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
論文 参考訳(メタデータ) (2023-10-28T05:05:01Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - On the Interventional Kullback-Leibler Divergence [11.57430292133273]
因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
論文 参考訳(メタデータ) (2023-02-10T17:03:29Z) - Emergent Causality & the Foundation of Consciousness [0.0]
我々は$do$演算子がない場合、介入は変数で表現できると主張している。
狭義では、それは何を知るべきかを記述し、意識の側面の機械的な説明である。
論文 参考訳(メタデータ) (2023-02-07T01:41:23Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Feature-Based Interpretable Reinforcement Learning based on
State-Transition Models [3.883460584034766]
現実世界でのAIモデルの運用に関する懸念が高まり、AIモデルの決定を人間に説明することへの関心が高まっています。
強化学習におけるリスクに関する局所的な説明方法を提案する。
論文 参考訳(メタデータ) (2021-05-14T23:43:11Z) - Models we Can Trust: Toward a Systematic Discipline of (Agent-Based)
Model Interpretation and Validation [0.0]
我々は、モデルから情報を取り出すための相互作用の分野の開発を提唱する。
このような分野の発展に向けたいくつかの方向性を概説する。
論文 参考訳(メタデータ) (2021-02-23T10:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。