論文の概要: Towards a Grounded Theory of Causation for Embodied AI
- arxiv url: http://arxiv.org/abs/2206.13973v1
- Date: Tue, 28 Jun 2022 12:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:28:51.479310
- Title: Towards a Grounded Theory of Causation for Embodied AI
- Title(参考訳): 具体化aiの基盤的因果理論に向けて
- Authors: Taco Cohen
- Abstract要約: 既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
- 参考スコア(独自算出の注目度): 12.259552039796027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There exist well-developed frameworks for causal modelling, but these require
rather a lot of human domain expertise to define causal variables and perform
interventions. In order to enable autonomous agents to learn abstract causal
models through interactive experience, the existing theoretical foundations
need to be extended and clarified. Existing frameworks give no guidance
regarding variable choice / representation, and more importantly, give no
indication as to which behaviour policies or physical transformations of state
space shall count as interventions. The framework sketched in this paper
describes actions as transformations of state space, for instance induced by an
agent running a policy. This makes it possible to describe in a uniform way
both transformations of the micro-state space and abstract models thereof, and
say when the latter is veridical / grounded / natural. We then introduce
(causal) variables, define a mechanism as an invariant predictor, and say when
an action can be viewed as a ``surgical intervention'', thus bringing the
objective of causal representation & intervention skill learning into clearer
focus.
- Abstract(参考訳): 因果モデリングのフレームワークは十分に開発されているが、因果変数を定義し介入を行うためには、人間ドメインの専門知識がかなり必要である。
対話的な経験を通じて抽象因果モデルを学習するためには、既存の理論基盤を拡張し、明確化する必要がある。
既存のフレームワークは、可変選択/表現に関するガイダンスを提供しておらず、さらに重要なことは、状態空間の振る舞いポリシーや物理的変換が介入として数えられるかを示すものではない。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができ、後者が検証的/接地/自然であることを言う。
次に, (causal) 変数を導入し, 機構を不変予測器として定義し, 行動が'サージカル介入'と見なせる場合について述べることにより, 因果表現と介入スキル学習の目的をより明確にした。
関連論文リスト
- Counterfactual Generation from Language Models [64.55296662926919]
対実的推論が介入と概念的に異なることを示す。
そこで本研究では,真の文字列反事実を生成するためのフレームワークを提案する。
我々の実験は、このアプローチが有意義な反事実を生み出すことを示した。
論文 参考訳(メタデータ) (2024-11-11T17:57:30Z) - Sequential Representation Learning via Static-Dynamic Conditional Disentanglement [58.19137637859017]
本稿では,ビデオ中の時間非依存要因と時間変化要因を分離することに着目し,逐次的データ内での自己教師付き不整合表現学習について検討する。
本稿では,静的/動的変数間の因果関係を明示的に考慮し,それらの因子間の通常の独立性仮定を破る新しいモデルを提案する。
実験により、提案手法は、シーンのダイナミックスが内容に影響されるシナリオにおいて、従来の複雑な最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-10T17:04:39Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Inverse Decision Modeling: Learning Interpretable Representations of
Behavior [72.80902932543474]
我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
論文 参考訳(メタデータ) (2023-10-28T05:05:01Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - On the Interventional Kullback-Leibler Divergence [11.57430292133273]
因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
論文 参考訳(メタデータ) (2023-02-10T17:03:29Z) - Emergent Causality and the Foundation of Consciousness [0.0]
我々は$do$演算子がない場合、介入は変数で表現できると主張している。
狭義では、それは何を知るべきかを記述し、意識の側面の機械的な説明である。
論文 参考訳(メタデータ) (2023-02-07T01:41:23Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Feature-Based Interpretable Reinforcement Learning based on
State-Transition Models [3.883460584034766]
現実世界でのAIモデルの運用に関する懸念が高まり、AIモデルの決定を人間に説明することへの関心が高まっています。
強化学習におけるリスクに関する局所的な説明方法を提案する。
論文 参考訳(メタデータ) (2021-05-14T23:43:11Z) - Models we Can Trust: Toward a Systematic Discipline of (Agent-Based)
Model Interpretation and Validation [0.0]
我々は、モデルから情報を取り出すための相互作用の分野の開発を提唱する。
このような分野の発展に向けたいくつかの方向性を概説する。
論文 参考訳(メタデータ) (2021-02-23T10:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。