論文の概要: Regression with Label Differential Privacy
- arxiv url: http://arxiv.org/abs/2212.06074v3
- Date: Wed, 4 Oct 2023 18:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:02:43.309125
- Title: Regression with Label Differential Privacy
- Title(参考訳): ラベル差分プライバシーによる回帰
- Authors: Badih Ghazi, Pritish Kamath, Ravi Kumar, Ethan Leeman, Pasin
Manurangsi, Avinash V Varadarajan, Chiyuan Zhang
- Abstract要約: 与えられた回帰損失関数の下で最適なラベルDPランダム化機構を導出する。
我々は、最適メカニズムが「ビンのランダム化応答」の形をとることを証明した。
- 参考スコア(独自算出の注目度): 64.21020761920322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the task of training regression models with the guarantee of label
differential privacy (DP). Based on a global prior distribution on label
values, which could be obtained privately, we derive a label DP randomization
mechanism that is optimal under a given regression loss function. We prove that
the optimal mechanism takes the form of a "randomized response on bins", and
propose an efficient algorithm for finding the optimal bin values. We carry out
a thorough experimental evaluation on several datasets demonstrating the
efficacy of our algorithm.
- Abstract(参考訳): ラベル差分プライバシー(DP)を保証した回帰モデルの学習課題について検討する。
ラベル値のグローバルな事前分布に基づいて, 与えられた回帰損失関数の下で最適なラベルDPランダム化機構を導出する。
最適機構が「ビンのランダム化応答」の形をとることを証明し、最適なビン値を求めるための効率的なアルゴリズムを提案する。
アルゴリズムの有効性を示すいくつかのデータセットについて,徹底的な実験評価を行った。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Optimal Unbiased Randomizers for Regression with Label Differential
Privacy [61.63619647307816]
ラベル差分プライバシ(DP)の制約の下で回帰モデルをトレーニングするためのラベルランダム化器の新たなファミリーを提案する。
これらのランダム化器は、いくつかのデータセット上で最先端のプライバシユーティリティトレードオフを実現することを実証する。
論文 参考訳(メタデータ) (2023-12-09T19:58:34Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift [1.3597551064547502]
対象分布に対する平均2乗誤差が小さい回帰関数を,ラベルなしデータと異なる特徴分布を持つラベル付きデータに基づいて学習する。
ラベル付きデータを2つのサブセットに分割し、カーネルリッジの回帰処理を行い、候補モデルの集合と計算モデルを得る。
モデル選択に擬似ラベルを用いることで性能を著しく損なうことはないことが判明した。
論文 参考訳(メタデータ) (2023-02-20T18:46:12Z) - Near Optimal Private and Robust Linear Regression [47.2888113094367]
本稿では,2つのアルゴリズムを改良したDP-SGDアルゴリズムを提案する。
ラベル破壊の下では、これは$(varepsilon,delta)$-DPとロバスト性の両方を保証する最初の効率的な線形回帰アルゴリズムである。
論文 参考訳(メタデータ) (2023-01-30T20:33:26Z) - Feature Selection via the Intervened Interpolative Decomposition and its
Application in Diversifying Quantitative Strategies [4.913248451323163]
本稿では,観測行列の各列がそれぞれの優先度や重要性を持つ補間分解(ID)を計算するための確率論的モデルを提案する。
提案したモデルを,中国A株10株を含む実世界のデータセット上で評価した。
論文 参考訳(メタデータ) (2022-09-29T03:36:56Z) - Sparse Bayesian Learning via Stepwise Regression [1.2691047660244335]
我々は、RMP(Relevance Matching Pursuit)と呼ばれるSBLのための座標加算アルゴリズムを提案する。
ノイズ分散パラメータがゼロになるにつれて、RMPはステップワイド回帰と驚くべき関係を示す。
ステップワイド回帰アルゴリズムの新たな保証を導き、RMPにも光を当てる。
論文 参考訳(メタデータ) (2021-06-11T00:20:27Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。