論文の概要: Learning Latent Causal Structures with a Redundant Input Neural Network
- arxiv url: http://arxiv.org/abs/2003.13135v3
- Date: Tue, 8 Sep 2020 16:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 13:05:54.771961
- Title: Learning Latent Causal Structures with a Redundant Input Neural Network
- Title(参考訳): 冗長入力ニューラルネットワークを用いた潜在因果構造学習
- Authors: Jonathan D. Young, Bryan Andrews, Gregory F. Cooper, Xinghua Lu
- Abstract要約: 入力が出力を引き起こすことは知られており、これらの因果関係は潜伏変数の集合の因果関係によって符号化される。
我々は、改良されたアーキテクチャと正規化された目的関数を備えた冗長入力ニューラルネットワーク(RINN)と呼ばれるディープラーニングモデルを開発する。
一連のシミュレーション実験により、RINN法は入力変数と出力変数の間の潜伏因果構造を回復することに成功した。
- 参考スコア(独自算出の注目度): 9.044150926401574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most causal discovery algorithms find causal structure among a set of
observed variables. Learning the causal structure among latent variables
remains an important open problem, particularly when using high-dimensional
data. In this paper, we address a problem for which it is known that inputs
cause outputs, and these causal relationships are encoded by a causal network
among a set of an unknown number of latent variables. We developed a deep
learning model, which we call a redundant input neural network (RINN), with a
modified architecture and a regularized objective function to find causal
relationships between input, hidden, and output variables. More specifically,
our model allows input variables to directly interact with all latent variables
in a neural network to influence what information the latent variables should
encode in order to generate the output variables accurately. In this setting,
the direct connections between input and latent variables makes the latent
variables partially interpretable; furthermore, the connectivity among the
latent variables in the neural network serves to model their potential causal
relationships to each other and to the output variables. A series of simulation
experiments provide support that the RINN method can successfully recover
latent causal structure between input and output variables.
- Abstract(参考訳): ほとんどの因果発見アルゴリズムは、観測された変数の集合の中で因果構造を見つける。
潜在変数間の因果構造を学ぶことは、特に高次元データを使用する場合において、重要なオープン問題である。
本稿では、入力が出力を引き起こすことがわかっている問題に対処し、これらの因果関係は未知数の潜在変数の集合の中で因果ネットワークによって符号化される。
我々は,入力変数,隠れ変数,出力変数の因果関係を求めるために,修正アーキテクチャと正規化目的関数を備えた冗長入力ニューラルネットワーク(rinn)と呼ばれるディープラーニングモデルを開発した。
より具体的には、入力変数がニューラルネットワーク内のすべての潜在変数と直接相互作用し、潜在変数がエンコードすべき情報に影響を与えることで、出力変数を正確に生成することができる。
この設定では、入力変数と潜在変数の直接接続により、潜在変数を部分的に解釈することができる。さらに、ニューラルネットワーク内の潜在変数間の接続は、相互および出力変数との潜在的な因果関係をモデル化するのに役立つ。
一連のシミュレーション実験は、rinn法が入力変数と出力変数の間の潜在因果構造を正常に回復することを支援する。
関連論文リスト
- Targeted Cause Discovery with Data-Driven Learning [66.86881771339145]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータの教師あり学習を通じて因果関係を特定するために訓練されたニューラルネットワークを用いる。
大規模遺伝子制御ネットワークにおける因果関係の同定における本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - BISCUIT: Causal Representation Learning from Binary Interactions [36.358968799947924]
BISCUITは因果変数とその対応する二項相互作用変数を同時に学習する手法である。
ロボットにインスパイアされた3つのデータセット上で、BISCUITは因果変数を正確に識別し、AIを具現化する複雑な現実的な環境にスケールすることができる。
論文 参考訳(メタデータ) (2023-06-16T06:10:55Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning latent causal graphs via mixture oracles [40.71943453524747]
本研究では,潜伏変数が存在するデータから因果グラフモデルを再構成する問題について検討する。
主な関心事は、潜伏変数上の因果構造を回復し、変数間の一般に、潜在的に非線形な依存を可能にすることである。
論文 参考訳(メタデータ) (2021-06-29T16:53:34Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Visual Neural Decomposition to Explain Multivariate Data Sets [13.117139248511783]
多次元データセットにおける変数間の関係を調べることは、データアナリストとエンジニアにとって共通の課題である。
本稿では,入力変数と対象変数との相関関係を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T15:53:37Z) - Multi-Task Learning for Multi-Dimensional Regression: Application to
Luminescence Sensing [0.0]
非線形回帰に対する新しいアプローチは、ニューラルネットワーク、特に十分な数の隠蔽層と適切な出力ニューロンを持つフィードフォワードアーキテクチャを使用することである。
本稿では,マルチタスク学習(MTL)アーキテクチャを提案する。これらは,共通レイヤの出力を入力とするタスク固有のレイヤの複数のブランチによって特徴付けられる。
多次元回帰に対するこのアプローチのパワーを実証するため, 蛍光センシングに本手法を適用した。
論文 参考訳(メタデータ) (2020-07-27T21:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。