論文の概要: Towards Practical Differential Privacy in Data Analysis: Understanding
the Effect of Epsilon on Utility in Private ERM
- arxiv url: http://arxiv.org/abs/2206.03488v1
- Date: Mon, 6 Jun 2022 08:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 13:17:55.733982
- Title: Towards Practical Differential Privacy in Data Analysis: Understanding
the Effect of Epsilon on Utility in Private ERM
- Title(参考訳): データ分析におけるディファレンシャルプライバシの実用化に向けて--プライベートermにおけるepsilonの効果の理解
- Authors: Yuzhe Li, Yong Liu, Bo Li, Weiping Wang, Nan Liu
- Abstract要約: 我々は、最もよく使われているデータ分析手法の一つであるプライベート実証リスク最小化(ERM)に焦点を当てる。
我々は,エプシロンが学習モデルの実用性に与える影響を理論的に探求することによって,問題の解決に向けた第一歩を踏み出す。
本稿では,エプシロンの任意の値の下で有効性を推定するための実践的アプローチを提案する。
- 参考スコア(独自算出の注目度): 20.447583964537717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus our attention on private Empirical Risk Minimization
(ERM), which is one of the most commonly used data analysis method. We take the
first step towards solving the above problem by theoretically exploring the
effect of epsilon (the parameter of differential privacy that determines the
strength of privacy guarantee) on utility of the learning model. We trace the
change of utility with modification of epsilon and reveal an established
relationship between epsilon and utility. We then formalize this relationship
and propose a practical approach for estimating the utility under an arbitrary
value of epsilon. Both theoretical analysis and experimental results
demonstrate high estimation accuracy and broad applicability of our approach in
practical applications. As providing algorithms with strong utility guarantees
that also give privacy when possible becomes more and more accepted, our
approach would have high practical value and may be likely to be adopted by
companies and organizations that would like to preserve privacy but are
unwilling to compromise on utility.
- Abstract(参考訳): 本稿では,最もよく用いられるデータ分析手法の一つであるERM(Private Empirical Risk Minimization)に注目した。
我々は、epsilon(プライバシー保証の強さを決定する差分プライバシーのパラメータ)が学習モデルの有用性に与える影響を理論的に検討することで、上記の問題を解決するための第一歩を踏み出します。
エプシロンの修飾によるユーティリティの変化を追跡し,エプシロンとユーティリティの関係を明らかにする。
次に,この関係を形式化し,エプシロンの任意の値の下での有用性を推定するための実用的な手法を提案する。
理論解析と実験の結果はともに高い推定精度を示し,本手法の実用的応用の可能性を示した。
可能な限りプライバシを付与する強力なユーティリティ保証をアルゴリズムに提供することがますます受け入れられるようになり、当社のアプローチは実用的価値が高く、プライバシを守りたいがユーティリティに妥協を望まない企業や組織に採用される可能性が高くなります。
関連論文リスト
- Is merging worth it? Securely evaluating the information gain for causal dataset acquisition [9.373086204998348]
我々は、マージの価値を定量化するための、最初の暗号的にセキュアな情報理論アプローチを導入する。
我々は、期待情報ゲイン(EIG)を評価し、生データを公開せずに安全に計算できることを保証するために、マルチパーティ計算を利用する。
論文 参考訳(メタデータ) (2024-09-11T12:17:01Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - An applied Perspective: Estimating the Differential Identifiability Risk of an Exemplary SOEP Data Set [2.66269503676104]
基本的統計的クエリの集合に対して,リスクメトリックを効率的に計算する方法を示す。
実世界の科学的データセットに基づいた実証分析は、現実的な条件下でのリスクの計算方法に関する知識を拡大します。
論文 参考訳(メタデータ) (2024-07-04T17:50:55Z) - A Theoretical Analysis of Efficiency Constrained Utility-Privacy
Bi-Objective Optimization in Federated Learning [23.563789510998333]
フェデレートラーニング(FL)は、複数のクライアントが、個々のデータを共有せずに、共同で共有モデルを学ぶことを可能にする。
FLでは差別化プライバシが一般的なテクニックとして登場し、ユーティリティやトレーニング効率に影響を与えながら、個々のユーザデータのプライバシを保護する。
本稿ではDPFLにおける効率制約付きユーティリティプライバシ双目的最適化問題を体系的に定式化する。
論文 参考訳(メタデータ) (2023-12-27T12:37:55Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Epsilon*: Privacy Metric for Machine Learning Models [7.461284823977013]
Epsilon*は、単一のモデルインスタンスのプライバシリスクを、プライバシ緩和戦略の展開前、またはデプロイ後、測定するための新しい指標である。
モデル予測へのブラックボックスアクセスのみを必要とし、トレーニングデータの再サンプリングやモデル再トレーニングを必要とせず、差分プライバシでトレーニングされていないモデルのプライバシリスクを測定するために使用できる。
論文 参考訳(メタデータ) (2023-07-21T00:49:07Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。