論文の概要: On counterfactual inference with unobserved confounding
- arxiv url: http://arxiv.org/abs/2211.08209v1
- Date: Mon, 14 Nov 2022 04:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 16:06:03.154531
- Title: On counterfactual inference with unobserved confounding
- Title(参考訳): 非オブザーブド・コンファウンディングによる反事実推論について
- Authors: Abhin Shah, Raaz Dwivedi, Devavrat Shah, Gregory W. Wornell
- Abstract要約: 独立だが不均一な単位を持つ観測的研究を前提として、各単位の反実分布を学習することが目的である。
我々は、介入と結果の間に統計的バイアスをもたらす、観測不能なコンファウンディングを用いた研究を考察する。
- 参考スコア(独自算出の注目度): 33.233165028046244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an observational study with $n$ independent but heterogeneous units and
one $p$-dimensional sample per unit containing covariates, interventions, and
outcomes, our goal is to learn the counterfactual distribution for each unit.
We consider studies with unobserved confounding which introduces statistical
biases between interventions and outcomes as well as exacerbates the
heterogeneity across units. Modeling the underlying joint distribution as an
exponential family and under suitable conditions, we reduce learning the $n$
unit-level counterfactual distributions to learning $n$ exponential family
distributions with heterogeneous parameters and only one sample per
distribution. We introduce a convex objective that pools all $n$ samples to
jointly learn all $n$ parameters and provide a unit-wise mean squared error
bound that scales linearly with the metric entropy of the parameter space. For
example, when the parameters are $s$-sparse linear combination of $k$ known
vectors, the error is $O(s\log k/p)$. En route, we derive sufficient conditions
for compactly supported distributions to satisfy the logarithmic Sobolev
inequality.
- Abstract(参考訳): 独立だが不均一な単位と,共変量,介入,結果を含む単位あたりの1$p$-dimensionalサンプルを用いた観測的研究から,各単位の反実分布を学習することが目的である。
我々は、介入と結果の間の統計的偏りを生じさせ、単位間の不均一性を悪化させる未観測共生の研究を検討する。
基礎となる結合分布を指数族としてモデル化し、適切な条件下では、単位レベル対実分布$n$の学習を、不均一パラメータを持つ指数族分布$n$の学習に還元する。
我々は、すべての$n$サンプルをプールして、すべての$n$パラメータを共同で学習し、パラメータ空間の計量エントロピーと線形にスケールする単位平均2乗誤差境界を提供する凸目的を導入する。
例えば、パラメータが $s$-sparse linear combination of $k$ known vectorsである場合、エラーは$o(s\log k/p)$である。
途中で、対数ソボレフ不等式を満たすためのコンパクトに支持された分布の十分条件を導出する。
関連論文リスト
- Metric Entropy Duality and the Sample Complexity of Outcome
Indistinguishability [7.727052811126007]
結果の不一致性において、目標は、ターゲット予測子と区別できない予測子を出力することである。
結果の不一致性のサンプル複雑性は、$P$ w.r.tの計量エントロピーによって特徴づけられる。
この同値性は凸幾何学における長年の計量エントロピー双対性予想と興味深い関係を持つ。
論文 参考訳(メタデータ) (2022-03-09T06:02:31Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Spatially relaxed inference on high-dimensional linear models [48.989769153211995]
本研究では,空間的に制約されたクラスタリング,統計的推論,アンサンブルを組み合わせ,複数のクラスタリング推論解を集約するアンサンブルクラスタリング推論アルゴリズムの特性について検討する。
アンサンブルクラスタ推論アルゴリズムは,最大クラスター径に等しい$delta$-FWERの標準仮定で$delta$-FWERを制御することを示す。
論文 参考訳(メタデータ) (2021-06-04T16:37:19Z) - On Misspecification in Prediction Problems and Robustness via Improper
Learning [23.64462813525688]
広い種類の損失関数とパラメトリック分布の族に対して、"プロパ"予測子をプレイしたことの後悔は、少なくとも$sqrtgamma n$として境界スケーリングを下げていることが示される。
パラメトリックファミリーの凸体で分布を再生する可能性のあるすべての学習者の家族にしても、これは改善できない例を示します。
論文 参考訳(メタデータ) (2021-01-13T17:54:08Z) - $(f,\Gamma)$-Divergences: Interpolating between $f$-Divergences and
Integral Probability Metrics [6.221019624345409]
我々は、$f$-divergences と積分確率メトリクス(IPMs)の両方を仮定する情報理論の分岐を構築するためのフレームワークを開発する。
2段階の質量再分配/物質輸送プロセスとして表現できることが示される。
統計的学習を例として,重み付き,絶対連続的なサンプル分布に対するGAN(generative adversarial network)の訓練において,その優位性を示す。
論文 参考訳(メタデータ) (2020-11-11T18:17:09Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Outlier-Robust Clustering of Non-Spherical Mixtures [5.863264019032882]
統計的に分離されたd-次元ガウスアン(k-GMM)の混合をクラスタリングするための最初のアウトリー・ローバストアルゴリズムを与える。
この結果は、$d$次元単位球面上の均一分布の任意のアフィン変換のクラスタリング混合に拡張される。
論文 参考訳(メタデータ) (2020-05-06T17:24:27Z) - Learning Entangled Single-Sample Distributions via Iterative Trimming [28.839136703139225]
そこで本研究では, 反復トリミング標本に基づいて, 簡便かつ効率的な手法を解析し, トリミング標本集合上のパラメータを再推定する。
対数反復法では, 誤差が$lceil alpha n rceil$-th ノイズ点の雑音レベルにのみ依存する推定値が出力されることを示す。
論文 参考訳(メタデータ) (2020-04-20T18:37:43Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。