論文の概要: The Limits of Differential Privacy in Online Learning
- arxiv url: http://arxiv.org/abs/2411.05483v1
- Date: Fri, 08 Nov 2024 11:21:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:54:04.344288
- Title: The Limits of Differential Privacy in Online Learning
- Title(参考訳): オンライン学習における差分プライバシーの限界
- Authors: Bo Li, Wei Wang, Peng Ye,
- Abstract要約: DP,純DP,近似DPの3種類の制約を分離する証拠を提示する。
まず、近似DPではオンライン学習可能であるが、適応的逆数設定では純粋DPではオンライン学習できない仮説クラスについて述べる。
そして、どんなオンライン学習者でも、ほぼ全ての仮説クラスに対して無限の誤りを犯さなければならないことを証明します。
- 参考スコア(独自算出の注目度): 11.099792269219124
- License:
- Abstract: Differential privacy (DP) is a formal notion that restricts the privacy leakage of an algorithm when running on sensitive data, in which privacy-utility trade-off is one of the central problems in private data analysis. In this work, we investigate the fundamental limits of differential privacy in online learning algorithms and present evidence that separates three types of constraints: no DP, pure DP, and approximate DP. We first describe a hypothesis class that is online learnable under approximate DP but not online learnable under pure DP under the adaptive adversarial setting. This indicates that approximate DP must be adopted when dealing with adaptive adversaries. We then prove that any private online learner must make an infinite number of mistakes for almost all hypothesis classes. This essentially generalizes previous results and shows a strong separation between private and non-private settings since a finite mistake bound is always attainable (as long as the class is online learnable) when there is no privacy requirement.
- Abstract(参考訳): 差分プライバシー(DP)は、機密データ上で実行されるアルゴリズムのプライバシー漏洩を制限する公式な概念である。
本研究では、オンライン学習アルゴリズムにおける差分プライバシーの基本的な限界について検討し、DPなし、純粋なDPなし、近似DPの3種類の制約を分離する証拠を提示する。
まず、近似DPではオンライン学習可能であるが、適応的逆数設定では純粋DPではオンライン学習できない仮説クラスについて述べる。
このことは、適応的敵に対処する際には、近似DPを採用する必要があることを示唆している。
そして、どんなオンライン学習者でも、ほぼ全ての仮説クラスに対して無限の誤りを犯さなければならないことを証明します。
これは基本的に以前の結果を一般化し、プライバシー要件がない場合に、有限のミスバウンドが常に(オンライン学習可能でない限り)達成可能であるため、プライベートと非プライベートのセッティングを強く分離することを示している。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Personalized Differential Privacy for Ridge Regression [3.4751583941317166]
我々はPDP-OP(Personalized-DP Output Perturbation Method)を導入し、データポイントごとのプライバシレベルに応じてリッジ回帰モデルのトレーニングを可能にする。
我々は、PDP-OPの厳密なプライバシー証明と、結果モデルの正確性を保証する。
我々はPDP-OPがJorgensenらのパーソナライズされたプライバシー技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-30T16:00:14Z) - Considerations on the Theory of Training Models with Differential
Privacy [13.782477759025344]
連合学習における協調学習は、各クライアントがそれぞれのローカルトレーニングデータの使用方法をコントロールしたいという一連のクライアントによって行われる。
差分プライバシーは、プライバシー漏洩を制限する方法の1つである。
論文 参考訳(メタデータ) (2023-03-08T15:56:27Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Adversary Instantiation: Lower Bounds for Differentially Private Machine
Learning [43.6041475698327]
異なるプライベート(DP)機械学習により、データ漏洩を制限しながら、プライベートデータに関するモデルをトレーニングできます。
本稿では,DPトレーニングアルゴリズムのプライバシ分析における敵対的能力の重要性について検討する。
論文 参考訳(メタデータ) (2021-01-11T18:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。