論文の概要: On Theoretical Limits of Learning with Label Differential Privacy
- arxiv url: http://arxiv.org/abs/2502.14309v1
- Date: Thu, 20 Feb 2025 06:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:29.971726
- Title: On Theoretical Limits of Learning with Label Differential Privacy
- Title(参考訳): ラベル差分プライバシーを用いた学習の理論的限界について
- Authors: Puning Zhao, Chuan Ma, Li Shen, Shaowei Wang, Rongfei Fan,
- Abstract要約: 本研究では,局所モデルと中央モデルの両方において,ラベルDPを用いた学習の基本的な限界について検討する。
以上の結果から, ラベルローカルDPでは, 完全DPより有意に早く収束する可能性が示唆された。
対照的に、ラベル中央DPでは、リスクはフルDPに比べて一定の要因によってのみ減少する。
- 参考スコア(独自算出の注目度): 18.799583898888244
- License:
- Abstract: Label differential privacy (DP) is designed for learning problems involving private labels and public features. While various methods have been proposed for learning under label DP, the theoretical limits remain largely unexplored. In this paper, we investigate the fundamental limits of learning with label DP in both local and central models for both classification and regression tasks, characterized by minimax convergence rates. We establish lower bounds by converting each task into a multiple hypothesis testing problem and bounding the test error. Additionally, we develop algorithms that yield matching upper bounds. Our results demonstrate that under label local DP (LDP), the risk has a significantly faster convergence rate than that under full LDP, i.e. protecting both features and labels, indicating the advantages of relaxing the DP definition to focus solely on labels. In contrast, under the label central DP (CDP), the risk is only reduced by a constant factor compared to full DP, indicating that the relaxation of CDP only has limited benefits on the performance.
- Abstract(参考訳): ラベル微分プライバシ(DP)は、プライベートラベルやパブリック機能に関わる問題を学ぶために設計された。
ラベルDPの下での学習には様々な方法が提案されているが、理論上の限界はほとんど探索されていない。
本稿では,極小収束率を特徴とする分類タスクと回帰タスクの両方の局所モデルと中央モデルにおいて,ラベルDPを用いた学習の基本的な限界について検討する。
我々は,各タスクを複数の仮説テスト問題に変換し,テストエラーを限定することによって,下位境界を確立する。
さらに,一致した上限を求めるアルゴリズムを開発する。
以上の結果から,ラベルローカルDP (LDP) では,DP定義を緩和してラベルのみに焦点を絞ることの利点が示され,完全なLPPの下でのコンバージェンス率よりもはるかに速いことが示唆された。
対照的に、ラベル中央DP(CDP)では、CDPの緩和がパフォーマンスに限られた利益をもたらすことを示唆し、フルDPに比べて一定の要因によってリスクは減少する。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - On Convex Optimization with Semi-Sensitive Features [69.6654603068888]
差分プライベート(DP)経験的リスク最小化問題について,いくつかの特徴のみに敏感な半感性DP条件下で検討した。
DP-ERMの過剰リスクについて, 上・下限の改善を行った。
論文 参考訳(メタデータ) (2024-06-27T09:45:52Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Local Discovery by Partitioning: Polynomial-Time Causal Discovery Around Exposure-Outcome Pairs [18.31538168213386]
本稿では,因果推論タスクの分割(LDP)による局所的な発見を提案する。
LDPは制約ベースのプロシージャで、潜伏したコンバウンディングの下で露光出力ペアのVASを返す。
LDPの調整セットは、ベースライン発見アルゴリズムよりもバイアスが少なく、より正確な平均処理効果の推定値が得られる。
論文 参考訳(メタデータ) (2023-10-25T14:53:10Z) - Federated Linear Contextual Bandits with User-level Differential Privacy [8.396384861175799]
本稿では,ユーザレベル差分プライバシ(DP)の概念に基づく連立線形文脈帯域について検討する。
まず,DP の様々な定義を逐次決定設定で適用可能な統合された帯域幅フレームワークを提案する。
次に, ユーザレベルの集中型DP (CDP) とローカルDP (LDP) をフェデレート・バンディット・フレームワークに正式に導入し, 学習後悔と対応するDP保証との根本的なトレードオフについて検討する。
論文 参考訳(メタデータ) (2023-06-08T15:21:47Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Three Variants of Differential Privacy: Lossless Conversion and
Applications [13.057076084452016]
本稿では,3種類の差分プライバシー(DP),すなわち近似DP,R'enyi RDP,仮説テストについて考察する。
まず, 2 つの$f$-divergences の結合範囲に基づいて, DP と反復を関連付ける機械を開発する。
アプリケーションとして、ノイズ勾配勾配のプライバシー保証を特徴付けるモーメントフレームワークに適用する。
論文 参考訳(メタデータ) (2020-08-14T18:23:50Z) - Gradient Descent in RKHS with Importance Labeling [58.79085525115987]
我々は重要ラベル付け問題について研究し、ラベルなしデータが多く与えられている。
ラベルなしデータの情報サブセットを効果的に選択できる新しい重要ラベル方式を提案する。
論文 参考訳(メタデータ) (2020-06-19T01:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。