論文の概要: Learning Causal Models Online
- arxiv url: http://arxiv.org/abs/2006.07461v1
- Date: Fri, 12 Jun 2020 20:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:04:13.646810
- Title: Learning Causal Models Online
- Title(参考訳): オンライン因果モデルを学ぶ
- Authors: Khurram Javed, Martha White, Yoshua Bengio
- Abstract要約: 予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 103.87959747047158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive models -- learned from observational data not covering the
complete data distribution -- can rely on spurious correlations in the data for
making predictions. These correlations make the models brittle and hinder
generalization. One solution for achieving strong generalization is to
incorporate causal structures in the models; such structures constrain learning
by ignoring correlations that contradict them. However, learning these
structures is a hard problem in itself. Moreover, it's not clear how to
incorporate the machinery of causality with online continual learning. In this
work, we take an indirect approach to discovering causal models. Instead of
searching for the true causal model directly, we propose an online algorithm
that continually detects and removes spurious features. Our algorithm works on
the idea that the correlation of a spurious feature with a target is not
constant over-time. As a result, the weight associated with that feature is
constantly changing. We show that by continually removing such features, our
method converges to solutions that have strong generalization. Moreover, our
method combined with random search can also discover non-spurious features from
raw sensory data. Finally, our work highlights that the information present in
the temporal structure of the problem -- destroyed by shuffling the data -- is
essential for detecting spurious features online.
- Abstract(参考訳): 完全なデータ分布をカバーしていない観測データから学習した予測モデルは、予測を行うためにデータの急激な相関に依存する可能性がある。
これらの相関はモデルを不安定にし、一般化を妨げる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことであり、そのような構造はそれらと矛盾する相関を無視して学習を制限する。
しかし、これらの構造を学ぶことはそれ自体が難しい問題である。
さらに、因果関係の機械をオンライン連続学習に組み込む方法も明確ではない。
本研究では,因果モデル発見に間接的アプローチをとる。
真の因果モデルを直接検索する代わりに,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
我々のアルゴリズムは、刺激的特徴と目標との相関が時間経過とともに一定でないという考え方に基づいている。
その結果、その機能に関連する重みは常に変化しています。
このような特徴を継続的に取り除くことで、この手法は強い一般化を持つ解に収束することを示す。
さらに,ランダム検索と組み合わせることで,生の感覚データから不純な特徴を発見できる。
最後に、我々の研究は、データのシャッフルによって破壊される問題の時間的構造に存在する情報は、オンラインのスプリアスな特徴を検出するのに不可欠であることを強調する。
関連論文リスト
- Towards Robust Text Classification: Mitigating Spurious Correlations with Causal Learning [2.7813683000222653]
本稿では,因果関係へのモデル依存を軽減するために,因果相関ロバスト (CCR) を提案する。
CCRは、逆確率重み付け(IPW)損失関数とともに、反ファクト推論に基づく因果的特徴選択法を統合する。
グループラベルを持たないメソッド間でのCCRの最先端性能を示し、場合によってはグループラベルを利用するモデルと競合する。
論文 参考訳(メタデータ) (2024-11-01T21:29:07Z) - CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series [4.008958683836471]
CAnDOITは、観測データと介入データの両方を用いて因果モデルを再構築する因果発見手法である。
因果解析における介入データの利用は、ロボット工学のような現実世界の応用には不可欠である。
CAnDOITのPython実装も開発され、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-03T13:57:08Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
我々は、古典因果探索アルゴリズムの出力からより大きな因果グラフを予測することを学ぶ教師付きモデルを訓練する。
我々のアプローチは、古典的手法の出力における典型的なエラーがデータセット間で比較できるという観察によって実現されている。
実データおよび合成データに関する実験では、このモデルが不特定性や分布シフトに直面して高い精度を維持することを示した。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Towards Causal Deep Learning for Vulnerability Detection [31.59558109518435]
ソフトウェア工学モデルに計算に基づく因果学習を導入する。
以上の結果から,CausalVulはモデル精度,ロバスト性,OOD性能を一貫して改善した。
論文 参考訳(メタデータ) (2023-10-12T00:51:06Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。