論文の概要: The Cost of Privacy in Asynchronous Differentially-Private Machine
Learning
- arxiv url: http://arxiv.org/abs/2003.08500v2
- Date: Mon, 29 Jun 2020 04:53:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 10:08:11.441125
- Title: The Cost of Privacy in Asynchronous Differentially-Private Machine
Learning
- Title(参考訳): 非同期微分プライベート機械学習におけるプライバシコスト
- Authors: Farhad Farokhi, Nan Wu, David Smith, Mohamed Ali Kaafar
- Abstract要約: 我々は、複数のプライベートデータセット上で機械学習モデルを協調訓練するための、微分プライベート非同期アルゴリズムを開発した。
中央学習者は、通信可能なときに、プライベートデータ所有者と1対1で対話する。
提案したプライバシ保存非同期アルゴリズムの性能を予測できることを実証する。
- 参考スコア(独自算出の注目度): 17.707240607542236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider training machine learning models using Training data located on
multiple private and geographically-scattered servers with different privacy
settings. Due to the distributed nature of the data, communicating with all
collaborating private data owners simultaneously may prove challenging or
altogether impossible. In this paper, we develop differentially-private
asynchronous algorithms for collaboratively training machine-learning models on
multiple private datasets. The asynchronous nature of the algorithms implies
that a central learner interacts with the private data owners one-on-one
whenever they are available for communication without needing to aggregate
query responses to construct gradients of the entire fitness function.
Therefore, the algorithm efficiently scales to many data owners. We define the
cost of privacy as the difference between the fitness of a privacy-preserving
machine-learning model and the fitness of trained machine-learning model in the
absence of privacy concerns. We prove that we can forecast the performance of
the proposed privacy-preserving asynchronous algorithms. We demonstrate that
the cost of privacy has an upper bound that is inversely proportional to the
combined size of the training datasets squared and the sum of the privacy
budgets squared. We validate the theoretical results with experiments on
financial and medical datasets. The experiments illustrate that collaboration
among more than 10 data owners with at least 10,000 records with privacy
budgets greater than or equal to 1 results in a superior machine-learning model
in comparison to a model trained in isolation on only one of the datasets,
illustrating the value of collaboration and the cost of the privacy. The number
of the collaborating datasets can be lowered if the privacy budget is higher.
- Abstract(参考訳): プライバシ設定の異なる複数のプライベートサーバと地理的に散乱したサーバ上のトレーニングデータを用いて機械学習モデルをトレーニングする。
データの性質が分散しているため、すべてのプライベートデータ所有者と同時に通信することは困難か不可能であることが証明される。
本稿では,複数のプライベートデータセット上で機械学習モデルを協調的に学習するための差分プライベート非同期アルゴリズムを開発した。
アルゴリズムの非同期性は、中央学習者が、フィットネス関数全体の勾配を構築するためにクエリ応答を集約することなく、通信可能なときに、プライベートデータ所有者と1対1で対話することを意味する。
したがって、アルゴリズムは多数のデータ所有者に効率的にスケールする。
プライバシのコストは、プライバシを保護しているマシンラーニングモデルの適合度と、プライバシの懸念のないトレーニングされたマシンラーニングモデルの適合度との差であると定義します。
提案したプライバシー保護非同期アルゴリズムの性能を予測できることを示す。
プライバシのコストは、トレーニングデータセットの平方乗とプライバシ予算の平方乗の合計に反比例する上限を持つことを実証する。
金融および医療データセットに関する実験により理論的結果を検証する。
この実験は、プライバシ予算が1以上の少なくとも10,000レコードを持つ10以上のデータ所有者間のコラボレーションが、データセットの1つだけを分離して訓練されたモデルと比較して優れたマシンラーニングモデルをもたらすことを示し、コラボレーションの価値とプライバシのコストを示す。
プライバシ予算が高ければ,コラボレーションするデータセットの数を削減できる。
関連論文リスト
- Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Data Sharing Markets [95.13209326119153]
我々は、各エージェントがデータの買い手および売り手の両方になり得る設定について検討する。
両データ交換(データ付きトレーディングデータ)と一方データ交換(お金付きトレーディングデータ)の2つの事例を考察する。
論文 参考訳(メタデータ) (2021-07-19T06:00:34Z) - CaPC Learning: Confidential and Private Collaborative Learning [30.403853588224987]
本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
論文 参考訳(メタデータ) (2021-02-09T23:50:24Z) - Differentially Private Synthetic Data: Applied Evaluations and
Enhancements [4.749807065324706]
異なるプライベートデータ合成は、個人の詳細を露出から保護する。
データ合成のための4つの差分私的生成対向ネットワークの評価を行った。
合成データを生成するためのアンサンブルに基づくモデリング手法であるQUAILを提案する。
論文 参考訳(メタデータ) (2020-11-11T04:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。