論文の概要: Causal Layering via Conditional Entropy
- arxiv url: http://arxiv.org/abs/2401.10495v1
- Date: Fri, 19 Jan 2024 05:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 16:56:40.979131
- Title: Causal Layering via Conditional Entropy
- Title(参考訳): 条件エントロピーによる因果層形成
- Authors: Itai Feigenbaum, Devansh Arpit, Huan Wang, Shelby Heinecke, Juan
Carlos Niebles, Weiran Yao, Caiming Xiong, and Silvio Savarese
- Abstract要約: 因果発見は、生成した観測可能なデータから観測されていない因果グラフに関する情報を回収することを目的としている。
我々は、条件付きエントロピーオラクルを介してデータにアクセスすることによって、グラフの階層化を回復する方法を提供する。
- 参考スコア(独自算出の注目度): 85.01590667411956
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Causal discovery aims to recover information about an unobserved causal graph
from the observable data it generates. Layerings are orderings of the variables
which place causes before effects. In this paper, we provide ways to recover
layerings of a graph by accessing the data via a conditional entropy oracle,
when distributions are discrete. Our algorithms work by repeatedly removing
sources or sinks from the graph. Under appropriate assumptions and
conditioning, we can separate the sources or sinks from the remainder of the
nodes by comparing their conditional entropy to the unconditional entropy of
their noise. Our algorithms are provably correct and run in worst-case
quadratic time. The main assumptions are faithfulness and injective noise, and
either known noise entropies or weakly monotonically increasing noise entropies
along directed paths. In addition, we require one of either a very mild
extension of faithfulness, or strictly monotonically increasing noise
entropies, or expanding noise injectivity to include an additional single
argument in the structural functions.
- Abstract(参考訳): 因果発見は、生成する可観測データから、観測されていない因果グラフに関する情報を回復することを目的としている。
階層化は効果を発生させる変数の順序付けである。
本稿では,分布が離散的であれば,条件付きエントロピーオラクルを通じてデータにアクセスすることにより,グラフの階層化を回復する方法を提案する。
私たちのアルゴリズムは、繰り返しソースやシンクをグラフから取り除くことで動作します。
適切な仮定と条件付けの下では、条件エントロピーとノイズの無条件エントロピーを比較して、ノードの残りの部分からソースやシンクを分離することができる。
我々のアルゴリズムは証明可能で、最悪の場合の二次時間に動作します。
主な前提は、忠実さと射影雑音であり、既知のノイズエントロピーか、指示経路に沿って弱い単調に増加するノイズエントロピーである。
さらに、忠実性の非常に穏やかな拡張の1つ、厳密に単調に増大するノイズエントロピー、あるいは構造関数に追加の1つの引数を含むようにノイズ注入性を拡張する必要がある。
関連論文リスト
- Lower bounds on bipartite entanglement in noisy graph states [8.59730790789283]
我々は、初期量子ビットがCZ演算の適用前に非偏極雑音を受けるノイズモデルを考える。
任意の量の(最大でない)偏極ノイズに対して厳密な正のコヒーレント情報を保持するグラフ状態の族を見つける。
論文 参考訳(メタデータ) (2024-04-13T14:01:45Z) - Root Cause Explanation of Outliers under Noisy Mechanisms [50.59446568076628]
因果過程は、しばしばグラフとしてモデル化され、エンティティはノードであり、パス/インターコネクションはエッジである。
既存の作業は、生成プロセスにおけるノードの寄与のみを考慮している。
根本原因を特定する際,各メカニズムの個々のエッジとノードについて検討する。
論文 参考訳(メタデータ) (2023-12-19T03:24:26Z) - Local Graph-homomorphic Processing for Privatized Distributed Systems [57.14673504239551]
付加雑音は学習モデルの性能に影響を与えないことを示す。
これは、分散アルゴリズムの差分プライバシーに関する以前の研究に対して、大きな改善である。
論文 参考訳(メタデータ) (2022-10-26T10:00:14Z) - Diffusion Models for Causal Discovery via Topological Ordering [20.875222263955045]
emphTopological ordering approachは、グラフ空間ではなく置換を探索することによって因果発見の最適化空間を減少させる。
ANMsの場合、データログのようなemphHessianは、葉ノードを因果グラフで見つけるのに使用することができ、トポロジ的順序付けを可能にする。
ニューラルネットワークを再トレーニングすることなく、学習したヘッセンを更新する理論を導入し、サンプルのサブセットによる計算が注文の正確な近似を与えることを示す。
論文 参考訳(メタデータ) (2022-10-12T13:36:29Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Analyzing and Improving the Optimization Landscape of Noise-Contrastive
Estimation [50.85788484752612]
ノイズコントラスト推定(NCE)は、非正規化確率モデルを学習するための統計的に一貫した手法である。
ノイズ分布の選択がNCEの性能に不可欠であることが実験的に観察されている。
本研究では,不適切な雑音分布を用いた場合,NCEの性能低下の原因を正式に指摘する。
論文 参考訳(メタデータ) (2021-10-21T16:57:45Z) - On the Role of Entropy-based Loss for Learning Causal Structures with
Continuous Optimization [27.613220411996025]
因果構造学習問題を最小二乗損失を用いた連続最適化問題として定式化する。
ガウス雑音の仮定に違反すると因果方向の同定が妨げられることを示す。
より一般的なエントロピーに基づく損失は、任意の雑音分布下での確率スコアと理論的に一致している。
論文 参考訳(メタデータ) (2021-06-05T08:29:51Z) - Learning Node Representations from Noisy Graph Structures [38.32421350245066]
現実のネットワークではノイズが広まっており、ネットワークを危険にさらしている。
本研究では,ノイズのないノード表現を学習し,同時にノイズを除去する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-04T07:18:39Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。