論文の概要: Private Sketches for Linear Regression
- arxiv url: http://arxiv.org/abs/2511.07365v1
- Date: Mon, 10 Nov 2025 18:22:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.406551
- Title: Private Sketches for Linear Regression
- Title(参考訳): 線形回帰のための私的バスケット
- Authors: Shrutimoy Das, Debanuj Nayak, Anirban Dasgupta,
- Abstract要約: 最小二乗問題と絶対偏差回帰問題に対する微分プライベートスケッチをリリースする。
これらのプライベートスケッチが利用可能になったことで、レグレッションに一般的に利用可能なソルバの応用が容易になった。
- 参考スコア(独自算出の注目度): 2.959915525479836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear regression is frequently applied in a variety of domains. In order to improve the efficiency of these methods, various methods have been developed that compute summaries or \emph{sketches} of the datasets. Certain domains, however, contain sensitive data which necessitates that the application of these statistical methods does not reveal private information. Differentially private (DP) linear regression methods have been developed for mitigating this problem. These techniques typically involve estimating a noisy version of the parameter vector. Instead, we propose releasing private sketches of the datasets. We present differentially private sketches for the problems of least squares regression, as well as least absolute deviations regression. The availability of these private sketches facilitates the application of commonly available solvers for regression, without the risk of privacy leakage.
- Abstract(参考訳): 線形回帰は様々な領域で頻繁に適用される。
これらの手法の効率を改善するため、データセットの要約や「emph{sketches}」を計算する様々な手法が開発されている。
しかしながら、いくつかのドメインは、これらの統計手法の適用がプライベート情報を明らかにしない必要のある機密データを含んでいる。
この問題を緩和するために、微分プライベート(DP)線形回帰法が開発されている。
これらの手法は通常、パラメータベクトルのノイズバージョンを推定する。
代わりに、データセットのプライベートスケッチのリリースを提案します。
最小二乗回帰問題と最小絶対偏差回帰問題に対する微分プライベートスケッチを提示する。
これらのプライベートスケッチが利用可能になったことで、プライバシリークのリスクを伴わずに、一般的に利用可能なレグレッションのための解決器の応用が容易になった。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Private Linear Regression with Differential Privacy and PAC Privacy [0.0]
既存のプライバシを保存する線形回帰法は、よく確立された差分プライバシーの枠組みに依存している。
PACプライバシーはこの文脈ではまだ調査されていない。
差分プライバシとPACプライバシでトレーニングされた線形回帰モデルを、3つの実世界のデータセットで比較する。
論文 参考訳(メタデータ) (2024-12-03T17:04:14Z) - Differential Privacy Regularization: Protecting Training Data Through Loss Function Regularization [49.1574468325115]
ニューラルネットワークに基づく機械学習モデルのトレーニングには、機密情報を含む大きなデータセットが必要である。
差分的にプライベートなSGD [DP-SGD] は、新しいモデルをトレーニングするために標準勾配降下アルゴリズム(SGD)を変更する必要がある。
より効率的な方法で同じ目標を達成するための新しい正規化戦略が提案されている。
論文 参考訳(メタデータ) (2024-09-25T17:59:32Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Better Private Linear Regression Through Better Private Feature
Selection [18.884088349732973]
我々は、Kendallランク相関に基づく微分プライベートな特徴選択手法を提案する。
機能は通常分散されている設定で有効性を保証する。
回帰の前にこのプライベートな特徴選択ステップを追加することで、プラグアンドプレイのプライベートな線形回帰アルゴリズムの適用性が大幅に拡大することがわかった。
論文 参考訳(メタデータ) (2023-06-01T17:21:10Z) - Improved Differentially Private Regression via Gradient Boosting [38.09948758699131]
勾配向上に基づく線形回帰法を新たに提案する。
包括的な実験に加えて、この振る舞いを説明する理論的洞察を与える。
論文 参考訳(メタデータ) (2023-03-06T19:20:52Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Near-Optimal Linear Regression under Distribution Shift [63.87137348308034]
線形ミニマックス推定器は、様々なソース/ターゲット分布に対する非線形推定器の中でも、ミニマックスリスクの絶対定数内にあることを示す。
論文 参考訳(メタデータ) (2021-06-23T00:52:50Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。