論文の概要: Differentially Private Two-Stage Gradient Descent for Instrumental Variable Regression
- arxiv url: http://arxiv.org/abs/2509.22794v1
- Date: Fri, 26 Sep 2025 18:02:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.877058
- Title: Differentially Private Two-Stage Gradient Descent for Instrumental Variable Regression
- Title(参考訳): インストゥルメンタル・バリアント・レグレッションのための個人用2段階グラディエントディフレッシュ
- Authors: Haodong Liang, Yanhao Jin, Krishnakumar Balasubramanian, Lifeng Lai,
- Abstract要約: 差分プライバシー制約下でのインストゥルメンタル変数回帰(IVaR)について検討する。
勾配更新に慎重に校正された雑音を注入することにより、差分プライバシーを確保するノイズの多い2状態勾配降下アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.733602577854825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study instrumental variable regression (IVaR) under differential privacy constraints. Classical IVaR methods (like two-stage least squares regression) rely on solving moment equations that directly use sensitive covariates and instruments, creating significant risks of privacy leakage and posing challenges in designing algorithms that are both statistically efficient and differentially private. We propose a noisy two-state gradient descent algorithm that ensures $\rho$-zero-concentrated differential privacy by injecting carefully calibrated noise into the gradient updates. Our analysis establishes finite-sample convergence rates for the proposed method, showing that the algorithm achieves consistency while preserving privacy. In particular, we derive precise bounds quantifying the trade-off among privacy parameters, sample size, and iteration-complexity. To the best of our knowledge, this is the first work to provide both privacy guarantees and provable convergence rates for instrumental variable regression in linear models. We further validate our theoretical findings with experiments on both synthetic and real datasets, demonstrating that our method offers practical accuracy-privacy trade-offs.
- Abstract(参考訳): 差分プライバシー制約下でのインストゥルメンタル変数回帰(IVaR)について検討する。
古典的なIVaR法(二段最小二乗回帰法のような)は、感度な共変量や楽器を直接使用するモーメント方程式を解くことに依存し、プライバシー漏洩の重大なリスクを生じさせ、統計的に効率的かつ微分プライベートなアルゴリズムを設計する際の課題を提起する。
勾配更新に慎重に校正ノイズを注入することにより,$$\rho$-0の差分プライバシーを確保する2状態勾配降下アルゴリズムを提案する。
本解析は,提案手法の有限サンプル収束率を確立し,プライバシを保ちながらアルゴリズムが整合性を達成することを示す。
特に、プライバシパラメータ、サンプルサイズ、反復複雑度の間のトレードオフの正確な境界を導出します。
我々の知る限りでは、これは線形モデルにおける機器変数回帰に対するプライバシー保証と証明可能な収束率の両方を提供する最初の研究である。
さらに,本手法が実用的精度とプライバシのトレードオフを提供することを示すために,合成データセットと実データセットの両方の実験による理論的知見の検証を行った。
関連論文リスト
- ImprovDML: Improved Trade-off in Private Byzantine-Resilient Distributed Machine Learning [22.85986751447643]
一般的な戦略は、Byzantine-Resilientアグリゲーションルールと差分プライバシーメカニズムの統合である。
そこで我々は,プライバシ保護を同時に確保しつつ,モデルの精度を向上する ImprovDML を提案する。
モデル精度と差分プライバシーの間のトレードオフを改善することを実証する。
論文 参考訳(メタデータ) (2025-06-18T06:53:52Z) - Forward Learning with Differential Privacy [27.164507868291913]
そこで我々は,DP-ULR(Disdifferial Private Unified Likelihood Ratio)という,ブループライエタリな前方学習アルゴリズムを提案する。
提案実験により,DP-ULRは,バックプロパゲーションに基づく従来の差分プライバシートレーニングアルゴリズムと比較して,競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-04-01T04:14:53Z) - Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。