論文の概要: Model Agnostic Differentially Private Causal Inference
- arxiv url: http://arxiv.org/abs/2505.19589v2
- Date: Tue, 27 May 2025 08:07:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.164257
- Title: Model Agnostic Differentially Private Causal Inference
- Title(参考訳): モデル非依存型個人因果推論
- Authors: Christian Lebeda, Mathieu Even, Aurélien Bellet, Julie Josse,
- Abstract要約: 観察データから因果効果を推定することは、医学、経済学、社会科学において不可欠である。
本稿では,平均治療効果を個人で評価するための一般的なモデルに依存しないフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.50501378936487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating causal effects from observational data is essential in fields such as medicine, economics and social sciences, where privacy concerns are paramount. We propose a general, model-agnostic framework for differentially private estimation of average treatment effects (ATE) that avoids strong structural assumptions on the data-generating process or the models used to estimate propensity scores and conditional outcomes. In contrast to prior work, which enforces differential privacy by directly privatizing these nuisance components and results in a privacy cost that scales with model complexity, our approach decouples nuisance estimation from privacy protection. This separation allows the use of flexible, state-of-the-art black-box models, while differential privacy is achieved by perturbing only predictions and aggregation steps within a fold-splitting scheme with ensemble techniques. We instantiate the framework for three classical estimators -- the G-formula, inverse propensity weighting (IPW), and augmented IPW (AIPW) -- and provide formal utility and privacy guarantees. Empirical results show that our methods maintain competitive performance under realistic privacy budgets. We further extend our framework to support meta-analysis of multiple private ATE estimates. Our results bridge a critical gap between causal inference and privacy-preserving data analysis.
- Abstract(参考訳): 医療、経済学、社会科学といった分野において、プライバシーの懸念が最重要である分野において、観測データから因果関係を推定することが不可欠である。
本稿では,データ生成プロセスにおける構造的仮定や,確率的スコアと条件的結果の推定に使用されるモデルに強い構造的仮定を回避し,平均処理効果(ATE)の個人的評価を行うための一般的なモデル非依存フレームワークを提案する。
これらのニュアンスコンポーネントを直接民営化し、モデル複雑性とスケールするプライバシコストをもたらす、従来の作業とは対照的に、私たちのアプローチでは、プライバシ保護からニュアンス推定を分離しています。
この分離により、フレキシブルで最先端のブラックボックスモデルの使用が可能になる一方、差分プライバシーは、アンサンブル技術による折り畳み分割方式内での予測と集約のみを摂動することで達成される。
G-formula, inverse propensity weighting (IPW), augmented IPW (AIPW) の3つの古典的推定器のフレームワークをインスタンス化し,形式的なユーティリティとプライバシ保証を提供する。
その結果,本手法は現実的なプライバシ予算下での競争性能を維持していることがわかった。
さらに、複数のプライベートATE推定のメタ分析をサポートするために、我々のフレームワークを拡張します。
この結果は,因果推論とプライバシ保存データ分析の間に重要なギャップを埋めるものである。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - The Last Iterate Advantage: Empirical Auditing and Principled Heuristic Analysis of Differentially Private SGD [46.71175773861434]
ノイズカットされた勾配勾配(DP-SGD)の簡易なプライバシー解析法を提案する。
各種トレーニング手順に適用したプライバシー監査の結果を予測できることを実験的に示す。
既存のプライバシー監査攻撃は、視覚と言語の両方のタスクにおける分析によって制限されていることを実証的に示しています。
論文 参考訳(メタデータ) (2024-10-08T16:51:10Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Simulation-based Bayesian Inference from Privacy Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - An Empirical Analysis of Fairness Notions under Differential Privacy [3.3748750222488657]
DP-SGDに適したモデルアーキテクチャを選択すると、統計的公正基準の異なるクラスに属する異なる公正概念がどう影響するかを示す。
これらの発見は、偏りのあるデータセットに基づいてトレーニングされたディープラーニングモデルにおいて、差分プライバシーが必ずしも不公平を悪化させるという理解に挑戦する。
論文 参考訳(メタデータ) (2023-02-06T16:29:50Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。