論文の概要: Differentially Private Iterative Screening Rules for Linear Regression
- arxiv url: http://arxiv.org/abs/2502.18578v1
- Date: Tue, 25 Feb 2025 19:06:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:59:27.195117
- Title: Differentially Private Iterative Screening Rules for Linear Regression
- Title(参考訳): 線形回帰に対する微分プライベート反復スクリーニング規則
- Authors: Amol Khanna, Fred Lu, Edward Raff,
- Abstract要約: 本稿では,線形回帰のための最初のプライベートスクリーニングルールを開発する。
このスクリーニングルールは、プライベートなスクリーニングステップの結果、あまりにも多くの係数をスクリーニングする。
しかし、プライベートスクリーニングの実装が弱まり、オーバースクリーンが減少し、性能が向上する。
- 参考スコア(独自算出の注目度): 45.50668718813776
- License:
- Abstract: Linear $L_1$-regularized models have remained one of the simplest and most effective tools in data science. Over the past decade, screening rules have risen in popularity as a way to eliminate features when producing the sparse regression weights of $L_1$ models. However, despite the increasing need of privacy-preserving models for data analysis, to the best of our knowledge, no differentially private screening rule exists. In this paper, we develop the first private screening rule for linear regression. We initially find that this screening rule is too strong: it screens too many coefficients as a result of the private screening step. However, a weakened implementation of private screening reduces overscreening and improves performance.
- Abstract(参考訳): 線形$L_1$-regularizedモデルは、データサイエンスで最もシンプルで効果的なツールの1つのままである。
過去10年間で、厳格なレグレッションウェイト(L_1ドルモデル)を生産する際、機能を排除する手段として、スクリーニングルールが人気を博している。
しかし、データ分析のためのプライバシ保護モデルの必要性が高まっているにもかかわらず、私たちの知る限りでは、差分プライベートなスクリーニングルールは存在しない。
本稿では,線形回帰のための最初のプライベートスクリーニングルールを開発する。
最初は、このスクリーニングルールが強すぎることに気付きました。
しかし、プライベートスクリーニングの実装が弱まり、オーバースクリーンが減少し、性能が向上する。
関連論文リスト
- Near-Optimal Private Learning in Linear Contextual Bandits [61.39697409886124]
一般化線形文脈包帯におけるプライベートラーニングの問題点を解析する。
私たちの結果は、共同プライバシーが、私たちが考慮しているすべての設定において、ほぼ"無料"であることを示している。
論文 参考訳(メタデータ) (2025-02-18T18:35:24Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Privacy for Free in the Over-Parameterized Regime [19.261178173399784]
ディファレンシャル・プライベート勾配降下(DP-GD)は、トレーニングデータのプライバシを保証してディープラーニングモデルをトレーニングする一般的なアルゴリズムである。
本研究では,2次損失を持つ一般的なランダム特徴モデルにおいて,十分大きな$p$に対して,プライバシが無償で取得可能であること,すなわち$left|R_P right| = o(1)$,プライバシパラメータ$varepsilon$が一定の順序を持つ場合に限らず,強いプライベート設定$varepsilon = o(1)$ が得られることを示す。
論文 参考訳(メタデータ) (2024-10-18T18:01:11Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - The Challenge of Differentially Private Screening Rules [32.18582226044492]
線形回帰とロジスティック回帰のための最初の微分プライベートスクリーニングルールを開発する。
そこで我々は,プライバシーを確保するために付加されるノイズの量によって,有用なプライベートスクリーニングルールを策定する作業の難しさを発見する。
論文 参考訳(メタデータ) (2023-03-18T01:45:34Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - The Hessian Screening Rule [5.076419064097734]
ヘッセンスクリーニング規則はモデルからの2次情報を使用してより正確なスクリーニングを提供する。
このルールは, 相関性の高いシミュレーション実験において, 他の選択肢よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-27T07:55:29Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。