論文の概要: Differentially Private Regression with Unbounded Covariates
- arxiv url: http://arxiv.org/abs/2202.11199v1
- Date: Sat, 19 Feb 2022 17:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:02:35.276467
- Title: Differentially Private Regression with Unbounded Covariates
- Title(参考訳): 非有界共変量による個人的回帰
- Authors: Jason Milionis, Alkis Kalavasis, Dimitris Fotakis, Stratis Ioannidis
- Abstract要約: 我々は,Last Squares Fitting,Binary Regression,Linear Regressionの古典的回帰設定に対して,差分プライベートなアルゴリズムを提供する。
我々は、ロジスティック回帰と線形分離可能なSVMの基本モデルと広く研究されているモデルを捉え、真の回帰ベクトルの偏りのない推定を学習する。
- 参考スコア(独自算出の注目度): 19.646866014320608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide computationally efficient, differentially private algorithms for
the classical regression settings of Least Squares Fitting, Binary Regression
and Linear Regression with unbounded covariates. Prior to our work, privacy
constraints in such regression settings were studied under strong a priori
bounds on covariates. We consider the case of Gaussian marginals and extend
recent differentially private techniques on mean and covariance estimation
(Kamath et al., 2019; Karwa and Vadhan, 2018) to the sub-gaussian regime. We
provide a novel technical analysis yielding differentially private algorithms
for the above classical regression settings. Through the case of Binary
Regression, we capture the fundamental and widely-studied models of logistic
regression and linearly-separable SVMs, learning an unbiased estimate of the
true regression vector, up to a scaling factor.
- Abstract(参考訳): 最小二乗適合,二元回帰,非有界共変量付き線形回帰の古典回帰設定に対して,計算効率が高く,微分プライベートなアルゴリズムを提供する。
我々の研究に先立ち、そのような回帰設定におけるプライバシーの制約は、共変量に対する強い優先的境界の下で研究された。
ガウス境界の事例を考察し、平均および共分散推定(kamath et al., 2019; karwa and vadhan, 2018)に関する最近の微分プライベート手法をサブガウス体制に拡張する。
上記の古典回帰設定に対して微分プライベートアルゴリズムを導出する新しい技術解析を提供する。
二項回帰の場合、ロジスティック回帰と線形分離可能なSVMの基本的および広く研究されているモデルを捉え、真の回帰ベクトルの偏りのない推定をスケーリング係数まで学習する。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - A Novel Approach in Solving Stochastic Generalized Linear Regression via
Nonconvex Programming [1.6874375111244329]
本稿では,一般化線形回帰モデルについて,確率制約問題として考察する。
提案アルゴリズムの結果は,通常のロジスティック回帰モデルよりも1~2%以上よい結果を得た。
論文 参考訳(メタデータ) (2024-01-16T16:45:51Z) - High-dimensional analysis of double descent for linear regression with
random projections [0.0]
ランダムな投影数が異なる線形回帰問題を考察し、固定された予測問題に対する二重降下曲線を確実に示す。
まず、リッジ回帰推定器を考察し、非パラメトリック統計学の古典的概念を用いて先行結果を再解釈する。
次に、最小ノルム最小二乗の一般化性能(バイアスと分散の観点から)の同値をランダムな射影に適合させ、二重降下現象の単純な表現を与える。
論文 参考訳(メタデータ) (2023-03-02T15:58:09Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Robust Regularized Low-Rank Matrix Models for Regression and
Classification [14.698622796774634]
本稿では,ランク制約,ベクトル正規化(疎性など),一般損失関数に基づく行列変分回帰モデルのフレームワークを提案する。
アルゴリズムは収束することが保証されており、アルゴリズムのすべての累積点が$O(sqrtn)$100の順序で推定誤差を持ち、最小値の精度をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2022-05-14T18:03:48Z) - Optimistic Rates: A Unifying Theory for Interpolation Learning and
Regularization in Linear Regression [35.78863301525758]
我々は「最適化率」として知られる一様収束の局所的概念を研究する。
改良された解析は既存の結果の隠れ定数と対数係数を回避している。
論文 参考訳(メタデータ) (2021-12-08T18:55:00Z) - Stochastic Online Linear Regression: the Forward Algorithm to Replace
Ridge [24.880035784304834]
オンラインリッジ回帰とフォワードアルゴリズムに対して高い確率的後悔境界を導出する。
これにより、オンライン回帰アルゴリズムをより正確に比較し、有界な観測と予測の仮定を排除できる。
論文 参考訳(メタデータ) (2021-11-02T13:57:53Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。