論文の概要: Generalized Balancing Weights via Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2211.07533v6
- Date: Fri, 29 Sep 2023 10:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:24:54.498061
- Title: Generalized Balancing Weights via Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークによる一般化バランス重み付け
- Authors: Yoshiaki Kitazawa
- Abstract要約: 観測データから因果効果を推定することは、多くの領域において中心的な問題である。
離散的および連続的な介入の任意の混合による因果効果を推定するために、一般化バランスウェイト、ニューラルバランスウェイト(NBW)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating causal effects from observational data is a central problem in
many domains. A general approach is to balance covariates with weights such
that the distribution of the data mimics randomization. We present generalized
balancing weights, Neural Balancing Weights (NBW), to estimate the causal
effects of an arbitrary mixture of discrete and continuous interventions. The
weights were obtained through direct estimation of the density ratio between
the source and balanced distributions by optimizing the variational
representation of $f$-divergence. For this, we selected $\alpha$-divergence as
it presents efficient optimization because it has an estimator whose sample
complexity is independent of its ground truth value and unbiased mini-batch
gradients; moreover, it is advantageous for the vanishing-gradient problem. In
addition, we provide the following two methods for estimating the balancing
weights: improving the generalization performance of the balancing weights and
checking the balance of the distribution changed by the weights. Finally, we
discuss the sample size requirements for the weights as a general problem of a
curse of dimensionality when balancing multidimensional data. Our study
provides a basic approach for estimating the balancing weights of
multidimensional data using variational $f$-divergences.
- Abstract(参考訳): 観測データから因果効果を推定することは、多くの領域において中心的な問題である。
一般的なアプローチは、データの分布がランダム化を模倣するような重みと共変量のバランスをとることである。
本稿では,神経バランス重み (neural balancing weights, nbw) を一般化し, 離散的および連続的介入の混合による因果効果を推定する。
f$-divergenceの変動表現を最適化することにより, 源と平衡分布の密度比を直接推定し, 重みを得た。
このために、サンプル複雑性が基底真理値や偏りのないミニバッチ勾配とは無関係な推定子を持つため、効率的な最適化を示すために、$\alpha$-divergenceを選択した。
さらに,バランスウェイトの一般化性能の向上と,バランスウェイトによって変化する分布のバランスの確認という,バランスウェイトの推定方法を提案する。
最後に,多次元データのバランスをとる際の次元の呪いの一般的な問題として,重みのサンプルサイズ要件について考察する。
本研究は,変分$f$-divergencesを用いて多次元データのバランス重みを推定するための基礎的アプローチを提供する。
関連論文リスト
- Exploring Weight Balancing on Long-Tailed Recognition Problem [37.820617032391404]
トレーニング段階ごとの神経崩壊とコーン効果に着目して重量バランスを解析した。
本分析により, トレーニング段階数を1に減らし, 精度を向上し, トレーニング手法をさらに単純化することができる。
論文 参考訳(メタデータ) (2023-05-26T01:45:19Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Adaptive Importance Sampling meets Mirror Descent: a Bias-variance
tradeoff [7.538482310185135]
適応的な重要度サンプリングの大きな欠点は、重みの大きなばらつきである。
本稿では,一定のパワーで重み付けを行うことを基本原理とする正規化戦略について検討する。
論文 参考訳(メタデータ) (2021-10-29T07:45:24Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Continuous Weight Balancing [0.0]
高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
論文 参考訳(メタデータ) (2021-03-30T18:03:12Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - The Heavy-Tail Phenomenon in SGD [7.366405857677226]
最小損失のHessianの構造に依存すると、SGDの反復はエンフェビーテールの定常分布に収束する。
深層学習におけるSGDの行動に関する知見に分析結果を変換する。
論文 参考訳(メタデータ) (2020-06-08T16:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。