論文の概要: Identifiable Energy-based Representations: An Application to Estimating
Heterogeneous Causal Effects
- arxiv url: http://arxiv.org/abs/2108.03039v1
- Date: Fri, 6 Aug 2021 10:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:41:17.046368
- Title: Identifiable Energy-based Representations: An Application to Estimating
Heterogeneous Causal Effects
- Title(参考訳): 同定可能なエネルギーに基づく表現:不均一因果効果推定への応用
- Authors: Yao Zhang and Jeroen Berrevoets and Mihaela van der Schaar
- Abstract要約: 条件付き平均治療効果(CATEs)は、多数の個体にまたがる不均一性について理解することができる。
典型的なCATE学習者は、CATEが識別可能であるために、すべての共起変数が測定されていると仮定する。
本稿では,ノイズコントラッシブ損失関数を用いて,変数の低次元表現を学習するエネルギーベースモデルを提案する。
- 参考スコア(独自算出の注目度): 83.66276516095665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional average treatment effects (CATEs) allow us to understand the
effect heterogeneity across a large population of individuals. However, typical
CATE learners assume all confounding variables are measured in order for the
CATE to be identifiable. Often, this requirement is satisfied by simply
collecting many variables, at the expense of increased sample complexity for
estimating CATEs. To combat this, we propose an energy-based model (EBM) that
learns a low-dimensional representation of the variables by employing a noise
contrastive loss function. With our EBM we introduce a preprocessing step that
alleviates the dimensionality curse for any existing model and learner
developed for estimating CATE. We prove that our EBM keeps the representations
partially identifiable up to some universal constant, as well as having
universal approximation capability to avoid excessive information loss from
model misspecification; these properties combined with our loss function,
enable the representations to converge and keep the CATE estimation consistent.
Experiments demonstrate the convergence of the representations, as well as show
that estimating CATEs on our representations performs better than on the
variables or the representations obtained via various benchmark dimensionality
reduction methods.
- Abstract(参考訳): 条件付き平均治療効果(CATEs)は、多数の個体における異種性の影響を理解するのに役立つ。
しかし、典型的なCATE学習者は、CATEが識別可能であるために、すべての共起変数が測定されていると仮定する。
多くの場合、この要件はCATEを推定するためのサンプルの複雑さの増加を犠牲にして、単に多くの変数を収集することで満たされる。
これに対抗するために,ノイズコントラッシブ損失関数を用いて変数の低次元表現を学習するエネルギーベースモデル(EBM)を提案する。
EBMでは、既存のモデルや学習者がCATEを推定するために開発した学習者の次元的呪いを緩和する前処理のステップを導入します。
我々は、ebmが表現を部分的に普遍定数まで識別でき、またモデルの誤特定から過剰な情報損失を避けるための普遍近似能力を持つことを証明している。
実験は表現の収束を実証し、また様々なベンチマーク次元の低減法によって得られた変数や表現よりも、表現のキャットの推定が優れていることを示した。
関連論文リスト
- Efficient adjustment for complex covariates: Gaining efficiency with
DOPE [56.537164957672715]
共変量によって表現される情報のサブセットを調整可能なフレームワークを提案する。
理論的な結果に基づいて,平均処理効果(ATE)の効率的な評価を目的とした,デバイアスドアウトカム適応確率推定器(DOPE)を提案する。
その結果,DOPE は様々な観測環境において ATE 推定のための効率的かつ堅牢な手法を提供することがわかった。
論文 参考訳(メタデータ) (2024-02-20T13:02:51Z) - Bounds on Representation-Induced Confounding Bias for Treatment Effect
Estimation [30.77874108094485]
条件平均処理効果(CATE)推定のための最先端手法は、表現学習を広く活用する。
ここでは、(潜在的に制約された)低次元表現による低サンプルCATE推定のばらつきを低減する。
低次元の表現は、観測された共同設立者に関する情報を失う可能性があり、その結果、CATE推定のための表現学習の妥当性が典型的に侵害されるため、バイアスにつながる。
論文 参考訳(メタデータ) (2023-11-19T13:31:30Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of
Diffusion Probabilistic Models [136.58244210412352]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - Spectral Representation Learning for Conditional Moment Models [33.34244475589745]
本研究では,不適切度を制御した表現を自動学習する手法を提案する。
本手法は,条件付き期待演算子のスペクトル分解によって定義される線形表現を近似する。
この表現をデータから効率的に推定できることを示し、得られた推定値に対してL2整合性を確立する。
論文 参考訳(メタデータ) (2022-10-29T07:48:29Z) - Semi-Supervised Quantile Estimation: Robust and Efficient Inference in
High Dimensional Settings [0.07031569227782805]
2つの利用可能なデータセットを特徴とする半教師付き環境での量子推定を考察する。
本稿では,2つのデータセットに基づいて,応答量子化(s)に対する半教師付き推定器群を提案する。
論文 参考訳(メタデータ) (2022-01-25T10:02:23Z) - Pseudo-Spherical Contrastive Divergence [119.28384561517292]
エネルギーベースモデルの最大学習確率を一般化するために,擬球面コントラスト分散(PS-CD)を提案する。
PS-CDは難解な分割関数を避け、学習目的の一般化されたファミリーを提供する。
論文 参考訳(メタデータ) (2021-11-01T09:17:15Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Longitudinal Variational Autoencoder [1.4680035572775534]
不足値を含む高次元データを解析するための一般的なアプローチは、変分オートエンコーダ(VAE)を用いた低次元表現を学習することである。
標準的なVAEは、学習した表現はi.d.であり、データサンプル間の相関を捉えることができないと仮定する。
本稿では,多出力加法的ガウス過程(GP)を用いて,構造化された低次元表現を学習するVAEの能力を拡張した縦型VAE(L-VAE)を提案する。
我々の手法は時間変化の共有効果とランダム効果の両方に同時に対応でき、構造化された低次元表現を生成する。
論文 参考訳(メタデータ) (2020-06-17T10:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。