論文の概要: Generalized Balancing Weights via Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2211.07533v5
- Date: Thu, 25 May 2023 06:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 23:38:14.098737
- Title: Generalized Balancing Weights via Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークによる一般化バランス重み付け
- Authors: Yoshiaki Kitazawa
- Abstract要約: 観測データから因果効果を推定することは、多くの領域において中心的な問題である。
離散的および連続的な介入の任意の混合による因果効果を推定するために、一般化バランスウェイト、ニューラルバランスウェイト(NBW)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating causal effects from observational data is a central problem in
many domains. A general approach is to balance covariates with weights such
that the distribution of the data mimics randomization. We present generalized
balancing weights, Neural Balancing Weights (NBW), to estimate the causal
effects of an arbitrary mixture of discrete and continuous interventions. The
weights were obtained through direct estimation of the density ratio between
the source and balanced distributions by optimizing the variational
representation of $f$-divergence. For this, we selected $\alpha$-divergence as
it presents efficient optimization because it has an estimator whose sample
complexity is independent of its ground truth value and unbiased mini-batch
gradients; moreover, it is advantageous for the vanishing-gradient problem. In
addition, we provide the following two methods for estimating the balancing
weights: improving the generalization performance of the balancing weights and
checking the balance of the distribution changed by the weights. Finally, we
discuss the sample size requirements for the weights as a general problem of a
curse of dimensionality when balancing multidimensional data. Our study
provides a basic approach for estimating the balancing weights of
multidimensional data using variational $f$-divergences.
- Abstract(参考訳): 観測データから因果効果を推定することは、多くの領域において中心的な問題である。
一般的なアプローチは、データの分布がランダム化を模倣するような重みと共変量のバランスをとることである。
本稿では,神経バランス重み (neural balancing weights, nbw) を一般化し, 離散的および連続的介入の混合による因果効果を推定する。
f$-divergenceの変動表現を最適化することにより, 源と平衡分布の密度比を直接推定し, 重みを得た。
このために、サンプル複雑性が基底真理値や偏りのないミニバッチ勾配とは無関係な推定子を持つため、効率的な最適化を示すために、$\alpha$-divergenceを選択した。
さらに,バランスウェイトの一般化性能の向上と,バランスウェイトによって変化する分布のバランスの確認という,バランスウェイトの推定方法を提案する。
最後に,多次元データのバランスをとる際の次元の呪いの一般的な問題として,重みのサンプルサイズ要件について考察する。
本研究は,変分$f$-divergencesを用いて多次元データのバランス重みを推定するための基礎的アプローチを提供する。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Nearest Neighbor Sampling for Covariate Shift Adaptation [7.940293148084844]
重みを推定しない新しい共変量シフト適応法を提案する。
基本的な考え方は、ソースデータセットの$k$-nearestの隣人によってラベル付けされたラベル付けされていないターゲットデータを直接扱うことだ。
実験の結果, 走行時間を大幅に短縮できることがわかった。
論文 参考訳(メタデータ) (2023-12-15T17:28:09Z) - Anomaly Detection with Variance Stabilized Density Estimation [49.46356430493534]
本稿では, 観測試料の確率を最大化するための分散安定化密度推定問題を提案する。
信頼性の高い異常検知器を得るために,分散安定化分布を学習するための自己回帰モデルのスペクトルアンサンブルを導入する。
我々は52のデータセットで広範なベンチマークを行い、我々の手法が最先端の結果につながることを示した。
論文 参考訳(メタデータ) (2023-06-01T11:52:58Z) - Augmented balancing weights as linear regression [3.877356414450364]
自動脱バイアス機械学習(AutoDML)としても知られる拡張バランスウェイトの特徴を新たに提供する。
拡張推定器は、元の結果モデルから得られる係数と、不注意な通常の最小二乗(OLS)から得られる係数を同じデータに組み合わせた単一の線形モデルと等価であることを示す。
私たちのフレームワークは、この人気の高い推定器のクラスにブラックボックスを開きます。
論文 参考訳(メタデータ) (2023-04-27T21:53:54Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Continuous Weight Balancing [0.0]
高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
論文 参考訳(メタデータ) (2021-03-30T18:03:12Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - The Heavy-Tail Phenomenon in SGD [7.366405857677226]
最小損失のHessianの構造に依存すると、SGDの反復はエンフェビーテールの定常分布に収束する。
深層学習におけるSGDの行動に関する知見に分析結果を変換する。
論文 参考訳(メタデータ) (2020-06-08T16:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。