論文の概要: BISCUIT: Causal Representation Learning from Binary Interactions
- arxiv url: http://arxiv.org/abs/2306.09643v1
- Date: Fri, 16 Jun 2023 06:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:48:25.284855
- Title: BISCUIT: Causal Representation Learning from Binary Interactions
- Title(参考訳): BISCUIT:バイナリインタラクションによる因果表現学習
- Authors: Phillip Lippe, Sara Magliacane, Sindy L\"owe, Yuki M. Asano, Taco
Cohen, Efstratios Gavves
- Abstract要約: BISCUITは因果変数とその対応する二項相互作用変数を同時に学習する手法である。
ロボットにインスパイアされた3つのデータセット上で、BISCUITは因果変数を正確に識別し、AIを具現化する複雑な現実的な環境にスケールすることができる。
- 参考スコア(独自算出の注目度): 36.358968799947924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Identifying the causal variables of an environment and how to intervene on
them is of core value in applications such as robotics and embodied AI. While
an agent can commonly interact with the environment and may implicitly perturb
the behavior of some of these causal variables, often the targets it affects
remain unknown. In this paper, we show that causal variables can still be
identified for many common setups, e.g., additive Gaussian noise models, if the
agent's interactions with a causal variable can be described by an unknown
binary variable. This happens when each causal variable has two different
mechanisms, e.g., an observational and an interventional one. Using this
identifiability result, we propose BISCUIT, a method for simultaneously
learning causal variables and their corresponding binary interaction variables.
On three robotic-inspired datasets, BISCUIT accurately identifies causal
variables and can even be scaled to complex, realistic environments for
embodied AI.
- Abstract(参考訳): 環境の因果変数とそれらにどう介入するかを識別することは、ロボット工学や組み込みAIといったアプリケーションにおいて、コアバリューである。
エージェントは一般に環境と相互作用し、これらの因果変数のいくつかの振る舞いを暗黙的に摂動させることができるが、しばしば影響を受けるターゲットは未知のままである。
本稿では,エージェントの因果変数との相互作用が未知のバイナリ変数によって記述できる場合,加算ガウス雑音モデルなど,多くの共通設定において因果変数を依然として同定できることを示す。
これは、各因果変数が観察変数と介入変数の2つの異なるメカニズムを持つ場合に起こる。
そこで本研究では,因果変数とその対応する二項相互作用変数を同時に学習するBISCUITを提案する。
ロボットにインスパイアされた3つのデータセット上で、BISCUITは因果変数を正確に識別し、AIを具現化する複雑な現実的な環境にスケールすることができる。
関連論文リスト
- Deep Learning-based Group Causal Inference in Multivariate Time-series [8.073449277052495]
多変量時空の非線形系における因果推論は、変数間の関係の複雑な網を遠ざけるのに役立っている。
本研究では,学習した深層ネットワークに対するグループレベルの介入によるモデルの不変性を検証し,変数群の因果方向を推定する。
論文 参考訳(メタデータ) (2024-01-16T14:19:28Z) - Adaptation Speed Analysis for Fairness-aware Causal Models [34.116613732724815]
機械翻訳タスクでは、2つの言語間の双方向翻訳を実現するために、ソースコーパスがターゲットコーパスとしてしばしば使用される。
ドメインシフトに最も早く適応できるかという問題は、多くの分野において非常に重要である。
論文 参考訳(メタデータ) (2023-08-31T17:36:57Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Error-related Potential Variability: Exploring the Effects on
Classification and Transferability [3.6930948691311016]
エラー関連電位(ErrPs)は、誤った事象を犯したり観察したりする際に引き起こされる特定の脳信号である。
ErrPは、他の脳信号、生物学的ノイズ、外部ノイズと組み合わせられるため、例によって異なる。
近年の研究では、ErrPの変化に寄与する認識、実施、予測可能性などの認知過程が明らかにされている。
論文 参考訳(メタデータ) (2023-01-16T18:39:18Z) - Weight-variant Latent Causal Models [79.79711624326299]
因果表現学習は、低レベルの観測の背後にある潜伏した高レベルの因果変数を明らかにする。
本研究では,潜伏因果変数の同定に焦点をあてる。
推移性は潜伏因果変数の識別性を著しく阻害することを示す。
本稿では,潜時因果変数を直接学習する構造式caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning Latent Causal Structures with a Redundant Input Neural Network [9.044150926401574]
入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
論文 参考訳(メタデータ) (2020-03-29T20:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。