論文の概要: Differentially Private Two-Stage Empirical Risk Minimization and Applications to Individualized Treatment Rule
- arxiv url: http://arxiv.org/abs/2602.12604v1
- Date: Fri, 13 Feb 2026 04:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.844573
- Title: Differentially Private Two-Stage Empirical Risk Minimization and Applications to Individualized Treatment Rule
- Title(参考訳): 個人的二段階経験的リスク最小化と個別処理規則への応用
- Authors: Joowon Lee, Guanhua Chen,
- Abstract要約: Differential Privacy(DP)は、プライバシを保存する推定器を導出するための厳格なフレームワークを提供する。
標準DP法は、個別化処理規則(ITR)や因果推論でよく見られる2段階問題の特定のクラスと競合する。
本稿では,第2段階にのみ慎重に校正されたノイズを注入するフレームワークであるDP-2ERMを提案する。
- 参考スコア(独自算出の注目度): 7.515007180781481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential Privacy (DP) provides a rigorous framework for deriving privacy-preserving estimators by injecting calibrated noise to mask individual contributions while preserving population-level insights. Its central challenge lies in the privacy-utility trade-off: calibrating noise levels to ensure robust protection without compromising statistical performance. Standard DP methods struggle with a particular class of two-stage problems prevalent in individualized treatment rules (ITRs) and causal inference. In these settings, data-dependent weights are first computed to satisfy distributional constraints, such as covariate balance, before the final parameter of interest is estimated. Current DP approaches often privatize stages independently, which either degrades weight efficacy-leading to biased and inconsistent estimates-or introduces excessive noise to account for worst-case scenarios. To address these challenges, we propose the Differentially Private Two-Stage Empirical Risk Minimization (DP-2ERM), a framework that injects a carefully calibrated noise only into the second stage while maintaining privacy for the entire pipeline and preserving the integrity of the first stage weights. Our theoretical contributions include deterministic bounds on weight perturbations across various widely used weighting methods, and probabilistic bounds on sensitivity for the final estimator. Simulations and real-world applications in ITR demonstrate that DP-2ERM significantly enhances utility over existing methods while providing rigorous privacy guarantees.
- Abstract(参考訳): 差分プライバシー(DP)は、人口レベルの洞察を維持しながら個人の貢献を隠蔽するために校正されたノイズを注入することにより、プライバシーを保護している推定者を導出するための厳密な枠組みを提供する。
その主な課題は、統計的パフォーマンスを損なうことなく、堅牢な保護を確保するために騒音レベルを調整することである。
標準DP法は、個別化処理規則(ITR)や因果推論でよく見られる2段階問題の特定のクラスと競合する。
これらの設定において、データ依存重みは、関心の最終的なパラメータが推定される前に、共変量残高などの分布的制約を満たすために最初に計算される。
現在のDPアプローチは、しばしば独立した段階を民営化するが、これは、偏りや矛盾した見積もりに重みを導いた効果を低下させるか、最悪のシナリオを考慮に入れた過剰なノイズをもたらす。
これらの課題に対処するため,我々は,パイプライン全体のプライバシを維持しつつ,第1ステージの重みの完全性を保ちつつ,慎重に校正されたノイズを第2ステージに注入するフレームワークであるDP-2ERM(Disfferially Private Two-Stage Empirical Risk Minimization)を提案する。
我々の理論的貢献は、様々な広く使われている重み付け法における重量摂動に関する決定論的境界と、最終推定器の感度に関する確率論的境界である。
ITRにおけるシミュレーションと実世界の応用により、DP-2ERMは厳格なプライバシー保証を提供しながら、既存の方法よりも実用性を著しく向上することを示した。
関連論文リスト
- Differentially Private Two-Stage Gradient Descent for Instrumental Variable Regression [22.733602577854825]
差分プライバシー制約下でのインストゥルメンタル変数回帰(IVaR)について検討する。
勾配更新に慎重に校正された雑音を注入することにより、差分プライバシーを確保するノイズの多い2状態勾配降下アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-26T18:02:58Z) - Unifying Re-Identification, Attribute Inference, and Data Reconstruction Risks in Differential Privacy [24.723577119566112]
攻撃成功のバウンダリは、再識別、属性推論、データ再構成リスクにまたがって、同一の統一形式をとることができることを示す。
この結果は, $varepsilon$-DP, R'enyi DP, および集中DPを用いた従来の方法よりも厳密である。
論文 参考訳(メタデータ) (2025-07-09T15:59:30Z) - SConU: Selective Conformal Uncertainty in Large Language Models [59.25881667640868]
SconU(Selective Conformal Uncertainity)と呼ばれる新しいアプローチを提案する。
我々は,特定の管理可能なリスクレベルで設定されたキャリブレーションの不確実性分布から,与えられたサンプルが逸脱するかどうかを決定するのに役立つ2つの共形p値を開発する。
我々のアプローチは、単一ドメインと学際的コンテキストの両方にわたる誤発見率の厳密な管理を促進するだけでなく、予測の効率を高める。
論文 参考訳(メタデータ) (2025-04-19T03:01:45Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。