論文の概要: Optimal Unbiased Randomizers for Regression with Label Differential
Privacy
- arxiv url: http://arxiv.org/abs/2312.05659v1
- Date: Sat, 9 Dec 2023 19:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:21:51.907284
- Title: Optimal Unbiased Randomizers for Regression with Label Differential
Privacy
- Title(参考訳): ラベル差分プライバシーを有する回帰のための最適アンバイアスランダム化器
- Authors: Ashwinkumar Badanidiyuru and Badih Ghazi and Pritish Kamath and Ravi
Kumar and Ethan Leeman and Pasin Manurangsi and Avinash V Varadarajan and
Chiyuan Zhang
- Abstract要約: ラベル差分プライバシ(DP)の制約の下で回帰モデルをトレーニングするためのラベルランダム化器の新たなファミリーを提案する。
これらのランダム化器は、いくつかのデータセット上で最先端のプライバシユーティリティトレードオフを実現することを実証する。
- 参考スコア(独自算出の注目度): 61.63619647307816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new family of label randomizers for training regression models
under the constraint of label differential privacy (DP). In particular, we
leverage the trade-offs between bias and variance to construct better label
randomizers depending on a privately estimated prior distribution over the
labels. We demonstrate that these randomizers achieve state-of-the-art
privacy-utility trade-offs on several datasets, highlighting the importance of
reducing bias when training neural networks with label DP. We also provide
theoretical results shedding light on the structural properties of the optimal
unbiased randomizers.
- Abstract(参考訳): ラベル微分プライバシー(dp)の制約下で回帰モデルのトレーニングを行うための新しいラベルランダム化器を提案する。
特に,バイアスと分散のトレードオフを利用して,ラベル上で推定された事前分布に依存するラベルランダム化器を構築する。
これらのランダム化器が,いくつかのデータセットで最先端のプライバシ利用トレードオフを実現することを実証し,ラベルdpを用いたニューラルネットワークのトレーニングにおけるバイアス低減の重要性を強調した。
また, 最適不偏ランダム化器の構造特性に関する理論的結果も示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - A Debiased Nearest Neighbors Framework for Multi-Label Text Classification [13.30576550077694]
マルチラベルテキスト分類(MLTC)のためのDebiased Nearest Neighbors(DENN)フレームワークについて紹介する。
組込みアライメントバイアスに対処するために,ラベル共起における近傍の一貫性を向上する,非バイアス付きコントラスト学習戦略を提案する。
信頼度推定バイアスには,$k$NNの予測と帰納的二分分類の適応的組み合わせを改善し,偏りのある信頼度推定戦略を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:00:23Z) - Leveraging Ensemble Diversity for Robust Self-Training in the Presence of Sample Selection Bias [5.698050337128548]
半教師付き学習において、自己学習はよく知られたアプローチである。モデルが自信を持ってラベル付きデータに擬似ラベルを反復的に割り当て、ラベル付き例として扱う。
ニューラルネットワークの場合、ソフトマックス予測確率はしばしば信頼度尺度として使用されるが、誤った予測であっても過度に信頼されていることが知られている。
本稿では,線形分類器のアンサンブルの予測多様性に基づいて,$mathcalT$-similarityと呼ばれる新しい信頼度尺度を提案する。
論文 参考訳(メタデータ) (2023-10-23T11:30:06Z) - Pseudo-labeling for Kernel Ridge Regression under Covariate Shift [2.7920304852537536]
対象分布に対する平均2乗誤差が小さい回帰関数を,ラベルなしデータと異なる特徴分布を持つラベル付きデータに基づいて学習する。
ラベル付きデータを2つのサブセットに分割し、カーネルリッジの回帰処理を行い、候補モデルの集合と計算モデルを得る。
論文 参考訳(メタデータ) (2023-02-20T18:46:12Z) - Regression with Label Differential Privacy [64.21020761920322]
与えられた回帰損失関数の下で最適なラベルDPランダム化機構を導出する。
我々は、最適メカニズムが「ビンのランダム化応答」の形をとることを証明した。
論文 参考訳(メタデータ) (2022-12-12T17:41:32Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Label differential privacy via clustering [27.485176618438842]
トレーニングセット内のラベルのプライバシのみを保護する差分プライベート機械学習のための新しいメカニズムを提案する。
提案機構は,これらの特徴ベクトルを用いてトレーニングセット内のサンプルをクラスタリングし,同一クラスタ内のサンプルから各ラベルをランダムに再サンプリングし,ノイズラベルと真の損失関数の修正版を出力する。
クラスタが大規模かつ高品質である場合、ノイズの多いトレーニングセットにおける変更損失を最小限に抑えるモデルが、非プライベート学習の速度に匹敵する速度で小さな過剰リスクに収束することを示す。
論文 参考訳(メタデータ) (2021-10-05T16:47:27Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。