論文の概要: PrivATE: Differentially Private Average Treatment Effect Estimation for Observational Data
- arxiv url: http://arxiv.org/abs/2512.14557v1
- Date: Tue, 16 Dec 2025 16:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.78933
- Title: PrivATE: Differentially Private Average Treatment Effect Estimation for Observational Data
- Title(参考訳): PrivATE:観測データに対する個人別平均処理効果推定
- Authors: Quan Yuan, Xiaochen Li, Linkang Du, Min Chen, Mingyang Sun, Yunjun Gao, Shibo He, Jiming Chen, Zhikun Zhang,
- Abstract要約: 差分プライバシーを保証する実用的なATE推定フレームワークであるPrivATEを紹介する。
プライバシの異なるプライバシ要件を満たすために、プライバシ保護の2つのレベル(ラベルレベルとサンプルレベル)をPrivATEで設計する。
PrivATEはノイズによるエラーとマッチングエラーを効果的にバランスさせ、ATEをより正確に見積もる。
- 参考スコア(独自算出の注目度): 49.35645194884526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal inference plays a crucial role in scientific research across multiple disciplines. Estimating causal effects, particularly the average treatment effect (ATE), from observational data has garnered significant attention. However, computing the ATE from real-world observational data poses substantial privacy risks to users. Differential privacy, which offers strict theoretical guarantees, has emerged as a standard approach for privacy-preserving data analysis. However, existing differentially private ATE estimation works rely on specific assumptions, provide limited privacy protection, or fail to offer comprehensive information protection. To this end, we introduce PrivATE, a practical ATE estimation framework that ensures differential privacy. In fact, various scenarios require varying levels of privacy protection. For example, only test scores are generally sensitive information in education evaluation, while all types of medical record data are usually private. To accommodate different privacy requirements, we design two levels (i.e., label-level and sample-level) of privacy protection in PrivATE. By deriving an adaptive matching limit, PrivATE effectively balances noise-induced error and matching error, leading to a more accurate estimate of ATE. Our evaluation validates the effectiveness of PrivATE. PrivATE outperforms the baselines on all datasets and privacy budgets.
- Abstract(参考訳): 因果推論は、複数の分野にわたる科学研究において重要な役割を果たす。
観測データから因果効果、特に平均治療効果(ATE)を推定することは、大きな注目を集めている。
しかし、現実世界の観測データからATEを計算することは、ユーザにかなりのプライバシー上のリスクをもたらす。
厳格な理論的保証を提供する差別化プライバシは、プライバシ保護データ分析の標準アプローチとして登場した。
しかし、既存の微分プライベートATE推定作業は、特定の仮定に依存し、プライバシー保護を限定するか、包括的な情報保護を提供しない。
この目的のために,差分プライバシーを保証する実用的なATE推定フレームワークであるPrivATEを紹介する。
実際、さまざまなシナリオはさまざまなレベルのプライバシー保護を必要とします。
例えば、テストスコアのみが教育評価において一般的にセンシティブな情報であるのに対し、医療記録データは一般にプライベートである。
異なるプライバシー要件を満たすため、PrivATEでは2つのレベル(ラベルレベルとサンプルレベル)のプライバシ保護を設計する。
適応的な整合限界を導出することにより、PrivATEはノイズによる誤差と整合誤差を効果的にバランスさせ、ATEをより正確に推定する。
評価はPrivATEの有効性を評価する。
PrivATEは、すべてのデータセットとプライバシ予算のベースラインを上回ります。
関連論文リスト
- PrivATE: Differentially Private Confidence Intervals for Average Treatment Effects [34.89334607334426]
平均処理効果(ATE)に対する信頼区間計算のための機械学習フレームワークPrivATEを提案する。
具体的には、観測データからATEの適切なプライバシ保護CIを導出することに焦点を当てる。
私たちのフレームワークはモデルであり、二重に堅牢で、有効なCIを保証する。
論文 参考訳(メタデータ) (2025-05-27T18:13:11Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。