論文の概要: Easy Differentially Private Linear Regression
- arxiv url: http://arxiv.org/abs/2208.07353v1
- Date: Mon, 15 Aug 2022 17:42:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 15:02:19.027896
- Title: Easy Differentially Private Linear Regression
- Title(参考訳): 容易な微分プライベート線形回帰
- Authors: Kareem Amin, Matthew Joseph, M\'onica Ribero, Sergei Vassilvitskii
- Abstract要約: 本研究では,指数関数機構を用いて,非プライベート回帰モデルの集合からタキー深度の高いモデルを選択するアルゴリズムについて検討する。
このアルゴリズムは、データリッチな設定において、強い経験的性能を得る。
- 参考スコア(独自算出の注目度): 16.325734286930764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear regression is a fundamental tool for statistical analysis. This has
motivated the development of linear regression methods that also satisfy
differential privacy and thus guarantee that the learned model reveals little
about any one data point used to construct it. However, existing differentially
private solutions assume that the end user can easily specify good data bounds
and hyperparameters. Both present significant practical obstacles. In this
paper, we study an algorithm which uses the exponential mechanism to select a
model with high Tukey depth from a collection of non-private regression models.
Given $n$ samples of $d$-dimensional data used to train $m$ models, we
construct an efficient analogue using an approximate Tukey depth that runs in
time $O(d^2n + dm\log(m))$. We find that this algorithm obtains strong
empirical performance in the data-rich setting with no data bounds or
hyperparameter selection required.
- Abstract(参考訳): 線形回帰は統計解析の基本的なツールである。
これにより、差分プライバシも満足する線形回帰法の開発が動機となり、学習モデルがその構築に使用される任意のデータポイントについてほとんど明らかにされないことが保証された。
しかし、既存の微分プライベートなソリューションは、エンドユーザが良いデータ境界とハイパーパラメータを容易に指定できると仮定する。
両者とも重大な障害がある。
本稿では,指数関数機構を用いて,非プライベート回帰モデルの集合からタキー深度の高いモデルを選択するアルゴリズムについて検討する。
m$ モデルのトレーニングに使用される$d$-dimensional データの$n$ のサンプルを与えられた場合、$o(d^2n + dm\log(m))$ で実行される近似タキー深さを用いて効率的なアナログを構築します。
このアルゴリズムは、データ境界やハイパーパラメータ選択を必要とせず、データ豊富な設定で強い経験的性能が得られる。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - An Efficient Data Analysis Method for Big Data using Multiple-Model
Linear Regression [4.085654010023149]
本稿では,Multiple Model linear regression (MMLR) と呼ばれる新たに定義された回帰モデルを用いて,ビッグデータの新しいデータ解析手法を提案する。
提案手法は,他の回帰法よりも効率的かつ柔軟であることが示されている。
論文 参考訳(メタデータ) (2023-08-24T10:20:15Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Variational Inference for Bayesian Bridge Regression [0.0]
橋梁のペナル化を伴う回帰モデルに対するベイズ推定のための自動微分変分推論(ADVI)の実装について検討する。
ブリッジアプローチは $ell_alpha$ norm を使い、回帰係数の大きな値に対するペナル化を定義するために $alpha in (0, +infty)$ を用いる。
B-スプラインを持つ非パラメトリック回帰モデルに対するアプローチについて説明するが、この手法は基底関数の他の選択に対してシームレスに機能する。
論文 参考訳(メタデータ) (2022-05-19T12:29:09Z) - Efficient and robust high-dimensional sparse logistic regression via
nonlinear primal-dual hybrid gradient algorithms [0.0]
弾性ネットペナルティによって正規化されるロジスティック回帰問題に対する解を確実に計算する反復アルゴリズムを提案する。
この結果は、一階最適化法に対して$O(min(m2n,mn2)log (1/epsilon))$の既知の複雑性境界を改善する。
論文 参考訳(メタデータ) (2021-11-30T14:16:48Z) - Evaluation of Tree Based Regression over Multiple Linear Regression for
Non-normally Distributed Data in Battery Performance [0.5735035463793008]
本研究では,機械学習モデル構築におけるデータ正規性の影響について検討する。
木に基づく回帰モデルと複数の線形回帰モデルは、それぞれ高度に歪んだ非正規データセットから構築される。
論文 参考訳(メタデータ) (2021-11-03T20:28:24Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Learning the Stein Discrepancy for Training and Evaluating Energy-Based
Models without Sampling [30.406623987492726]
非正規化密度モデルの評価と訓練のための新しい手法を提案する。
データ密度$p(x)$とデータのベクトル関数で定義されるモデル密度$q(x)$とのスタイン差を推定する。
これは、既存の手法を高次元データで上回る、新しい適合性テストをもたらす。
論文 参考訳(メタデータ) (2020-02-13T16:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。