論文の概要: BISCUIT: Causal Representation Learning from Binary Interactions
- arxiv url: http://arxiv.org/abs/2306.09643v1
- Date: Fri, 16 Jun 2023 06:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:48:25.284855
- Title: BISCUIT: Causal Representation Learning from Binary Interactions
- Title(参考訳): BISCUIT:バイナリインタラクションによる因果表現学習
- Authors: Phillip Lippe, Sara Magliacane, Sindy L\"owe, Yuki M. Asano, Taco
Cohen, Efstratios Gavves
- Abstract要約: BISCUITは因果変数とその対応する二項相互作用変数を同時に学習する手法である。
ロボットにインスパイアされた3つのデータセット上で、BISCUITは因果変数を正確に識別し、AIを具現化する複雑な現実的な環境にスケールすることができる。
- 参考スコア(独自算出の注目度): 36.358968799947924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Identifying the causal variables of an environment and how to intervene on
them is of core value in applications such as robotics and embodied AI. While
an agent can commonly interact with the environment and may implicitly perturb
the behavior of some of these causal variables, often the targets it affects
remain unknown. In this paper, we show that causal variables can still be
identified for many common setups, e.g., additive Gaussian noise models, if the
agent's interactions with a causal variable can be described by an unknown
binary variable. This happens when each causal variable has two different
mechanisms, e.g., an observational and an interventional one. Using this
identifiability result, we propose BISCUIT, a method for simultaneously
learning causal variables and their corresponding binary interaction variables.
On three robotic-inspired datasets, BISCUIT accurately identifies causal
variables and can even be scaled to complex, realistic environments for
embodied AI.
- Abstract(参考訳): 環境の因果変数とそれらにどう介入するかを識別することは、ロボット工学や組み込みAIといったアプリケーションにおいて、コアバリューである。
エージェントは一般に環境と相互作用し、これらの因果変数のいくつかの振る舞いを暗黙的に摂動させることができるが、しばしば影響を受けるターゲットは未知のままである。
本稿では,エージェントの因果変数との相互作用が未知のバイナリ変数によって記述できる場合,加算ガウス雑音モデルなど,多くの共通設定において因果変数を依然として同定できることを示す。
これは、各因果変数が観察変数と介入変数の2つの異なるメカニズムを持つ場合に起こる。
そこで本研究では,因果変数とその対応する二項相互作用変数を同時に学習するBISCUITを提案する。
ロボットにインスパイアされた3つのデータセット上で、BISCUITは因果変数を正確に識別し、AIを具現化する複雑な現実的な環境にスケールすることができる。
関連論文リスト
- Predicting perturbation targets with causal differential networks [23.568795598997376]
我々は、因果グラフを観察および介入データセットから推定するために、償却因果探索モデルを用いる。
我々は、これらのペアグラフを、教師付き学習フレームワークで介入された変数の集合にマッピングすることを学ぶ。
このアプローチは、7つのシングルセルトランスクリプトミクスデータセットの摂動モデリングのベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-10-04T12:48:21Z) - Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Causal Inference with Latent Variables: Recent Advances and Future Prospectives [43.04559575298597]
因果推論(英: Causal inference、CI)は、興味のある変数間の固有の因果関係を推定することを目的としている。
重要な変数の観察の欠如は、CIメソッドの信頼性を著しく損なう。
これらの潜伏変数が不注意に扱われると、様々な結果が生じる。
論文 参考訳(メタデータ) (2024-06-20T03:15:53Z) - Deep Learning-based Group Causal Inference in Multivariate Time-series [8.073449277052495]
多変量時空の非線形系における因果推論は、変数間の関係の複雑な網を遠ざけるのに役立っている。
本研究では,学習した深層ネットワークに対するグループレベルの介入によるモデルの不変性を検証し,変数群の因果方向を推定する。
論文 参考訳(メタデータ) (2024-01-16T14:19:28Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning Latent Causal Structures with a Redundant Input Neural Network [9.044150926401574]
入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
論文 参考訳(メタデータ) (2020-03-29T20:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。