論文の概要: SoK: A Review of Differentially Private Linear Models For High-Dimensional Data
- arxiv url: http://arxiv.org/abs/2404.01141v1
- Date: Mon, 1 Apr 2024 14:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:15:37.716070
- Title: SoK: A Review of Differentially Private Linear Models For High-Dimensional Data
- Title(参考訳): SoK:高次元データのための微分プライベート線形モデルのレビュー
- Authors: Amol Khanna, Edward Raff, Nathan Inkawhich,
- Abstract要約: 線形モデルは高次元における過度な適合とデータの記憶の傾向が強い。
トレーニングデータのプライバシを保証するために、差分プライバシを使用することができる。
すべてのメソッドを実装するためのコードは、オンラインでリリースされている。
- 参考スコア(独自算出の注目度): 45.54082430399367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear models are ubiquitous in data science, but are particularly prone to overfitting and data memorization in high dimensions. To guarantee the privacy of training data, differential privacy can be used. Many papers have proposed optimization techniques for high-dimensional differentially private linear models, but a systematic comparison between these methods does not exist. We close this gap by providing a comprehensive review of optimization methods for private high-dimensional linear models. Empirical tests on all methods demonstrate robust and coordinate-optimized algorithms perform best, which can inform future research. Code for implementing all methods is released online.
- Abstract(参考訳): 線形モデルは、データ科学においてユビキタスであるが、特に高次元における過度な適合とデータの記憶が困難である。
トレーニングデータのプライバシを保証するために、差分プライバシを使用することができる。
多くの論文で高次元微分プライベート線形モデルに対する最適化手法が提案されているが、これらの手法の体系的な比較は存在しない。
我々は、プライベートな高次元線形モデルに対する最適化手法の包括的なレビューを提供することで、このギャップを埋める。
全ての手法に関する実証実験では、堅牢で座標最適化アルゴリズムが最善を尽くし、将来の研究を知らせることができる。
すべてのメソッドを実装するためのコードは、オンラインでリリースされている。
関連論文リスト
- Scalable Differentially Private Bayesian Optimization [17.28046301424826]
勾配インフォーマティブベイズ最適化を用いて,潜在的に高次元なパラメータ空間をプライベートに推定する手法を開発した。
理論的には, 最適条件下では, 最適パラメータ構成の周囲の球に指数関数的に収束する。
仮定が満たされているかどうかに関わらず、我々のアルゴリズムはプライバシを維持し、既存の手法よりも優れた性能を実証的に示すことを示す。
論文 参考訳(メタデータ) (2025-02-09T21:49:50Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Privacy without Noisy Gradients: Slicing Mechanism for Generative Model Training [10.229653770070202]
差分プライバシ(DP)を持つ生成モデルを訓練するには、通常、勾配更新にノイズを注入するか、判別器の訓練手順を適用する必要がある。
プライベートデータのランダムな低次元投影にノイズを注入するスライシングプライバシ機構について考察する。
本稿では,この分散性を考慮したカーネルベース推定器を提案し,対角訓練の必要性を回避した。
論文 参考訳(メタデータ) (2024-10-25T19:32:58Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - On the utility and protection of optimization with differential privacy
and classic regularization techniques [9.413131350284083]
本稿では,標準最適化手法に対するDP-SGDアルゴリズムの有効性について検討する。
我々は、差分プライバシーの欠陥と限界について議論し、ドロップアウトとl2-規則化のプライバシー保護特性がしばしば優れていることを実証した。
論文 参考訳(メタデータ) (2022-09-07T14:10:21Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Learning to Guide Random Search [111.71167792453473]
我々は、潜在低次元多様体上の高次元関数の微分自由最適化を考える。
最適化を行いながらこの多様体を学習するオンライン学習手法を開発した。
本研究では,連続最適化ベンチマークと高次元連続制御問題について実験的に評価する。
論文 参考訳(メタデータ) (2020-04-25T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。