論文の概要: Differentially Private Estimation of Heterogeneous Causal Effects
- arxiv url: http://arxiv.org/abs/2202.11043v1
- Date: Tue, 22 Feb 2022 17:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:11:17.865140
- Title: Differentially Private Estimation of Heterogeneous Causal Effects
- Title(参考訳): 不均一因果効果の個人差分推定
- Authors: Fengshi Niu, Harsha Nori, Brian Quistorff, Rich Caruana, Donald Ngwe,
Aadharsh Kannan
- Abstract要約: 本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
- 参考スコア(独自算出の注目度): 9.355532300027727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating heterogeneous treatment effects in domains such as healthcare or
social science often involves sensitive data where protecting privacy is
important. We introduce a general meta-algorithm for estimating conditional
average treatment effects (CATE) with differential privacy (DP) guarantees. Our
meta-algorithm can work with simple, single-stage CATE estimators such as
S-learner and more complex multi-stage estimators such as DR and R-learner. We
perform a tight privacy analysis by taking advantage of sample splitting in our
meta-algorithm and the parallel composition property of differential privacy.
In this paper, we implement our approach using DP-EBMs as the base learner.
DP-EBMs are interpretable, high-accuracy models with privacy guarantees, which
allow us to directly observe the impact of DP noise on the learned causal
model. Our experiments show that multi-stage CATE estimators incur larger
accuracy loss than single-stage CATE or ATE estimators and that most of the
accuracy loss from differential privacy is due to an increase in variance, not
biased estimates of treatment effects.
- Abstract(参考訳): 医療や社会科学などの領域における異質な治療効果の推定には、プライバシを保護することが重要な機密データを必要とすることが多い。
本稿では,条件付き平均治療効果 (CATE) を差分プライバシー (DP) 保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
我々は、メタアルゴリズムにおけるサンプル分割と、差分プライバシーの並列構成特性を利用して、厳密なプライバシー分析を行う。
本稿では,DP-EBMをベース学習者とする手法を提案する。
DP-EBMは、プライバシー保証付き解釈可能な高精度モデルであり、DPノイズが学習因果モデルに与える影響を直接観察することができる。
実験の結果,多段階CATE推定器は単一段階CATEやATE推定器よりも精度の低下が大きいことが示され,差分プライバシーによる精度低下の大部分は,治療効果の偏りではなく,ばらつきの増加によるものであることが示唆された。
関連論文リスト
- Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - A Simple and Practical Method for Reducing the Disparate Impact of
Differential Privacy [21.098175634158043]
差分的プライベート(DP)メカニズムは、様々なインパクトの高い社会環境に展開されている。
DPの実用性への影響はサブ集団によって大きく異なる。
この格差を減らすための簡単な方法は、成層化である。
論文 参考訳(メタデータ) (2023-12-18T21:19:35Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Differentially Private Multi-Site Treatment Effect Estimation [28.13660104055298]
ほとんどの患者データは別々の病院でサイロに残っており、データ駆動型医療AIシステムの設計を妨げている。
医療応用における因果推論の重要な課題である平均治療効果(ATE)を推定することを検討する。
本稿では, ATE推定値とその分散を品質指標として報告する, サイトごとの推定アルゴリズムのクラスを通してこの問題に対処する。
論文 参考訳(メタデータ) (2023-10-10T01:21:01Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - A Differentially Private Weighted Empirical Risk Minimization Procedure and its Application to Outcome Weighted Learning [4.322221694511603]
差分プライバシー(DP)は、データのプライバシー問題に対処するための魅力的なフレームワークである。
DPは、機密データから情報を公開する際に生じるプライバシー損失に数学的に証明可能な境界を提供する。
一般のwERMに対する最初の微分プライベートアルゴリズムを提案し、理論DPを保証する。
論文 参考訳(メタデータ) (2023-07-24T21:03:25Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。