論文の概要: Scalable Out-of-distribution Robustness in the Presence of Unobserved Confounders
- arxiv url: http://arxiv.org/abs/2411.19923v1
- Date: Fri, 29 Nov 2024 18:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:22:21.347795
- Title: Scalable Out-of-distribution Robustness in the Presence of Unobserved Confounders
- Title(参考訳): 非保守的共同設立者の存在下でのスケーラブルなアウト・オブ・ディストリビューションロバスト性
- Authors: Parjanya Prashant, Seyedeh Baharan Khatami, Bruno Ribeiro, Babak Salimi,
- Abstract要約: 我々は、配当シフトが観測されていない共同設立者(Z$)による、配当外配当(OOD)一般化の課題を考える。
我々の研究は、予測を著しく単純化し、結果としてエレガントな単純さが既存のアプローチより優れているという、識別可能性の仮定を調査する。
- 参考スコア(独自算出の注目度): 11.127206986936367
- License:
- Abstract: We consider the task of out-of-distribution (OOD) generalization, where the distribution shift is due to an unobserved confounder ($Z$) affecting both the covariates ($X$) and the labels ($Y$). In this setting, traditional assumptions of covariate and label shift are unsuitable due to the confounding, which introduces heterogeneity in the predictor, i.e., $\hat{Y} = f_Z(X)$. OOD generalization differs from traditional domain adaptation by not assuming access to the covariate distribution ($X^\text{te}$) of the test samples during training. These conditions create a challenging scenario for OOD robustness: (a) $Z^\text{tr}$ is an unobserved confounder during training, (b) $P^\text{te}{Z} \neq P^\text{tr}{Z}$, (c) $X^\text{te}$ is unavailable during training, and (d) the posterior predictive distribution depends on $P^\text{te}(Z)$, i.e., $\hat{Y} = E_{P^\text{te}(Z)}[f_Z(X)]$. In general, accurate predictions are unattainable in this scenario, and existing literature has proposed complex predictors based on identifiability assumptions that require multiple additional variables. Our work investigates a set of identifiability assumptions that tremendously simplify the predictor, whose resulting elegant simplicity outperforms existing approaches.
- Abstract(参考訳): 流通の一般化(OOD)の課題を考えると、流通のシフトは、共変量(X$)とラベル(Y$)の両方に影響を及ぼす、観測されていない共同設立者(Z$)によるものである。
この設定では、共変量とラベルシフトの伝統的な仮定は、予測子における不均一性(すなわち$\hat{Y} = f_Z(X)$)をもたらす共変量によって不適当である。
OOD一般化は、訓練中のテストサンプルの共変量分布(X^\text{te}$)へのアクセスを仮定しないことで、従来のドメイン適応とは異なる。
これらの条件は、OODの堅牢性に挑戦的なシナリオを生み出します。
(a)$Z^\text{tr}$は、トレーニング中の観測されていない共同創設者である。
(b) $P^\text{te}{Z} \neq P^\text{tr}{Z}$,
(c) $X^\text{te}$はトレーニング中に利用できなくなり、
(d) 後続の予測分布は$P^\text{te}(Z)$、すなわち$\hat{Y} = E_{P^\text{te}(Z)}[f_Z(X)]$に依存する。
一般に、このシナリオでは正確な予測は達成不可能であり、既存の文献では複数の追加変数を必要とする識別可能性仮定に基づく複雑な予測器が提案されている。
我々の研究は、予測を著しく単純化し、結果としてエレガントな単純さが既存のアプローチより優れているという、識別可能性の仮定を調査する。
関連論文リスト
- Cross-validating causal discovery via Leave-One-Variable-Out [11.891940572224783]
私たちは"Leave-One-Variable-Out (LOVO)"予測を使い、$Y$は$X$から推論されるが、$X$と$Y$は共同で観測されることはない。
Acyclic Directed Mixed Graphs (ADMGs) という形で、2つの部分集合上の因果モデルが、しばしば$X$ と $Y$ の依存関係に関する結論を導くことを示した。
この予測誤差は、$P(X, Y)$が利用可能であると仮定され、$X$と$Y$がfalの目的のために省略されているため推定できる。
論文 参考訳(メタデータ) (2024-11-08T15:15:34Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Towards Better Understanding of In-Context Learning Ability from In-Context Uncertainty Quantification [7.869708570399577]
条件付き期待値 $mathbbE[Y|X]$ と条件付き分散 Var$(Y|X)$ の両方を予測する双目的予測タスクを考える。
理論的には、トレーニングされたトランスフォーマーがベイズ最適付近に到達し、トレーニング分布の情報の利用が示唆される。
論文 参考訳(メタデータ) (2024-05-24T00:08:55Z) - Adaptive Data Analysis in a Balanced Adversarial Model [26.58630744414181]
適応データ解析において、メカニズムは未知の分布から$n$、すなわち$D$のサンプルを取得し、正確な推定を行う必要がある。
我々は、それぞれが2つの分離されたアルゴリズムから構成されるアンフバランスドと呼ばれる、より制限された敵を考える。
これらの強い硬さの仮定は、計算的に有界なアンフバランス逆元が公開鍵暗号の存在を示唆するという意味では避けられないことを示す。
論文 参考訳(メタデータ) (2023-05-24T15:08:05Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - The out-of-sample $R^2$: estimation and inference [0.0]
2つの予測モデルの比較として、アウト・オブ・サンプルの$R2$を定義する。
我々は、$hatR2$の標準誤差を提供するために、データ分割推定の不確実性に関する最近の理論的進歩を利用する。
論文 参考訳(メタデータ) (2023-02-10T09:29:57Z) - Revealing Unobservables by Deep Learning: Generative Element Extraction
Networks (GEEN) [5.3028918247347585]
本稿では,ランダムサンプル中の潜伏変数$X*$を推定する新しい手法を提案する。
我々の知る限りでは、この論文は観測においてそのような識別を初めて提供するものである。
論文 参考訳(メタデータ) (2022-10-04T01:09:05Z) - CARD: Classification and Regression Diffusion Models [51.0421331214229]
本稿では,条件生成モデルと事前学習条件平均推定器を組み合わせた分類と回帰拡散(CARD)モデルを提案する。
おもちゃの例と実世界のデータセットを用いて条件分布予測におけるCARDの卓越した能力を示す。
論文 参考訳(メタデータ) (2022-06-15T03:30:38Z) - Taming Overconfident Prediction on Unlabeled Data from Hindsight [50.9088560433925]
ラベルのないデータに対する予測の不確実性を最小化することは、半教師付き学習において優れた性能を達成するための鍵となる要素である。
本稿では,アダプティブシャーニング(Adaptive Sharpening, ADS)と呼ばれる2つのメカニズムを提案する。
ADSは、プラグインにすることで最先端のSSLメソッドを大幅に改善する。
論文 参考訳(メタデータ) (2021-12-15T15:17:02Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。