論文の概要: On the Role of Entropy-based Loss for Learning Causal Structures with
Continuous Optimization
- arxiv url: http://arxiv.org/abs/2106.02835v1
- Date: Sat, 5 Jun 2021 08:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 07:01:39.027976
- Title: On the Role of Entropy-based Loss for Learning Causal Structures with
Continuous Optimization
- Title(参考訳): 連続最適化による因果構造学習におけるエントロピーに基づく損失の役割について
- Authors: Ruichu Cai, Weilin Chen, Jie Qiao, Zhifeng Hao
- Abstract要約: 非循環性制約付き最小二乗損失を用いた連続最適化問題として因果構造学習問題を定式化する。
ガウス雑音の仮定に違反すると因果方向の同定が妨げられることを示す。
より一般的なエントロピーに基づく損失は、任意の雑音分布下での確率スコアと理論的に一致している。
- 参考スコア(独自算出の注目度): 30.454039668139316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery from observational data is an important but challenging task
in many scientific fields. Recently, NOTEARS [Zheng et al., 2018] formulates
the causal structure learning problem as a continuous optimization problem
using least-square loss with an acyclicity constraint. Though the least-square
loss function is well justified under the standard Gaussian noise assumption,
it is limited if the assumption does not hold. In this work, we theoretically
show that the violation of the Gaussian noise assumption will hinder the causal
direction identification, making the causal orientation fully determined by the
causal strength as well as the variances of noises in the linear case and the
noises of strong non-Gaussianity in the nonlinear case. Consequently, we
propose a more general entropy-based loss that is theoretically consistent with
the likelihood score under any noise distribution. We run extensive empirical
evaluations on both synthetic data and real-world data to validate the
effectiveness of the proposed method and show that our method achieves the best
in Structure Hamming Distance, False Discovery Rate, and True Positive Rate
matrices.
- Abstract(参考訳): 観測データからの因果発見は多くの科学分野において重要であるが難しい課題である。
近年, notears [zheng et al., 2018] は因果構造学習問題を非巡回性制約付き最小二乗損失を用いた連続最適化問題として定式化している。
最小二乗損失関数は標準ガウス雑音仮定の下では十分正当化されるが、仮定が成り立たない場合に制限される。
本研究では,ガウス雑音仮定の破れが因果方向同定の妨げとなり,因果方向が因果強度と線形の場合の雑音の分散,非線形の場合の強い非ガウス性雑音によって完全に決定されることを理論的に示す。
その結果,任意の雑音分布下での確率値と理論的に一致した,より一般的なエントロピーに基づく損失を提案する。
提案手法の有効性を検証するために合成データと実世界のデータの両方について広範な実験評価を行い,提案手法が構造ハミング距離,偽発見率,真正率行列において最良であることを示す。
関連論文リスト
- Causal Discovery with Score Matching on Additive Models with Arbitrary
Noise [37.13308785728276]
因果発見法は、構造識別可能性を保証するために必要な仮定のセットによって本質的に制約される。
本稿では,雑音項のガウス性に反するエッジ反転のリスクを解析し,この仮説の下での推論の欠点を示す。
本稿では,一般的な雑音分布を持つ付加非線形モデルに基づいて生成されたデータから,因果グラフ内の変数の位相的順序付けを推定する新しい手法を提案する。
これは、最小限の仮定と、合成データに基づいて実験的にベンチマークされた技術性能の状態を持つ因果探索アルゴリズムであるNoGAMに繋がる。
論文 参考訳(メタデータ) (2023-04-06T17:50:46Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Robust Matrix Completion with Heavy-tailed Noise [0.5837881923712392]
本稿では,重み付き潜在的非対称雑音の存在下での低ランク行列の完全性について検討する。
本稿では,大規模かつ非対称な誤りに対して頑健な重み付き雑音に適応するハマー損失を適応的に適用する。
誤差の2番目のモーメント条件下では、ユークリッド誤差は最小値の統計的推定誤差に到達するまで幾何的に早く落ちることが証明される。
論文 参考訳(メタデータ) (2022-06-09T04:48:48Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z) - Analyzing and Improving the Optimization Landscape of Noise-Contrastive
Estimation [50.85788484752612]
ノイズコントラスト推定(NCE)は、非正規化確率モデルを学習するための統計的に一貫した手法である。
ノイズ分布の選択がNCEの性能に不可欠であることが実験的に観察されている。
本研究では,不適切な雑音分布を用いた場合,NCEの性能低下の原因を正式に指摘する。
論文 参考訳(メタデータ) (2021-10-21T16:57:45Z) - Noisy Gradient Descent Converges to Flat Minima for Nonconvex Matrix
Factorization [36.182992409810446]
本稿では,非最適化問題における雑音の重要性について考察する。
勾配勾配勾配は、入射雑音によって決定される大域バイアスに収束する任意の大域的な形式に収束できることを示す。
論文 参考訳(メタデータ) (2021-02-24T17:50:17Z) - Causal Inference Using Linear Time-Varying Filters with Additive Noise [18.35147325731821]
制約構造因果モデルフレームワークを用いた因果推論は、データ生成機構による原因と効果の非対称性に大きく依存する。
データの非定常性を利用して対称性を破ることを提案する。
主な理論的結果は,原因と効果が時間変化フィルタを介して接続された場合,因果方向が汎用ケースで同定可能であることを示している。
論文 参考訳(メタデータ) (2020-12-23T23:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。