論文の概要: Interpolation and Regularization for Causal Learning
- arxiv url: http://arxiv.org/abs/2202.09054v1
- Date: Fri, 18 Feb 2022 07:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 13:16:44.083257
- Title: Interpolation and Regularization for Causal Learning
- Title(参考訳): 因果学習のための補間と正規化
- Authors: Leena Chennuru Vankadara, Luca Rendsburg, Ulrike von Luxburg,
Debarghya Ghoshdastidar
- Abstract要約: 観測データから因果モデルを学習する際の問題点を考察する。
補間器は最適ではなく,因果学習は統計的学習よりも強い正規化を必要とする。
- 参考スコア(独自算出の注目度): 21.443297599122058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning causal models from observational data
through the lens of interpolation and its counterpart -- regularization. A
large volume of recent theoretical, as well as empirical work, suggests that,
in highly complex model classes, interpolating estimators can have good
statistical generalization properties and can even be optimal for statistical
learning. Motivated by an analogy between statistical and causal learning
recently highlighted by Janzing (2019), we investigate whether interpolating
estimators can also learn good causal models. To this end, we consider a simple
linearly confounded model and derive precise asymptotics for the *causal risk*
of the min-norm interpolator and ridge-regularized regressors in the
high-dimensional regime. Under the principle of independent causal mechanisms,
a standard assumption in causal learning, we find that interpolators cannot be
optimal and causal learning requires stronger regularization than statistical
learning. This resolves a recent conjecture in Janzing (2019). Beyond this
assumption, we find a larger range of behavior that can be precisely
characterized with a new measure of *confounding strength*. If the confounding
strength is negative, causal learning requires weaker regularization than
statistical learning, interpolators can be optimal, and the optimal
regularization can even be negative. If the confounding strength is large, the
optimal regularization is infinite, and learning from observational data is
actively harmful.
- Abstract(参考訳): 補間レンズとそれに対応する正則化を通して観測データから因果モデルを学習する問題について検討する。
最近の理論や経験的研究の膨大な量は、高度に複雑なモデルクラスにおいて、補間推定子は優れた統計一般化特性を持ち、統計学習に最適であるかもしれないことを示唆している。
最近Janzing (2019) が強調した統計学と因果学習の類推により, 補間推定器が優れた因果モデルも学べるかどうかを考察した。
この目的のために,単純な線形結合モデルを考え,高次元環境におけるmin-norm補間器とリッジ正規化レグレッサの*causal risk*に対する正確な漸近性を求める。
因果学習における標準的な仮定である独立因果機構の原理の下では、補間子は最適ではなく、因果学習は統計的学習よりも強固な正規化を必要とする。
これは最近のJanzing (2019) の予想を解く。
この仮定を超越すると、より広い範囲の行動が、*結合力*という新しい尺度で正確に特徴づけられるようになる。
共起強度が負の場合、因果学習は統計的学習よりも弱い正則化を必要とし、補間器は最適であり、最適正則化は負である。
結合強度が大きい場合、最適正則化は無限であり、観測データからの学習は積極的に有害である。
関連論文リスト
- Mechanism learning: Reverse causal inference in the presence of multiple unknown confounding through front-door causal bootstrapping [0.8901073744693314]
機械学習(ML)予測モデルの最大の制限は、変数間の因果関係ではなく、関連性を取り戻すことである。
本稿では,前向きの因果ブートストラップを用いて観測データを分解する機構学習を提案する。
提案手法は,完全合成,半合成,実世界のデータセットを用いて,信頼性,不偏性,因果的ML予測器を検出できることを実証する。
論文 参考訳(メタデータ) (2024-10-26T03:34:55Z) - Trade-off Between Dependence and Complexity for Nonparametric Learning
-- an Empirical Process Approach [10.27974860479791]
データが時間的依存を示す多くのアプリケーションでは、対応する経験的プロセスは理解されていない。
標準的な$beta/rho$-mixingの仮定の下では、経験過程の期待上限に一般化する。
長距離依存下であっても、i.d.設定と同じ速度で達成できることが示される。
論文 参考訳(メタデータ) (2024-01-17T05:08:37Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Benign overfitting in ridge regression [0.0]
過度にパラメータ化されたリッジ回帰に対する漸近的でない一般化境界を提供する。
最小あるいは負の正則化が小さい一般化誤差を得るのに十分であるかどうかを同定する。
論文 参考訳(メタデータ) (2020-09-29T20:00:31Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。