論文の概要: Privacy Amplification via Random Participation in Federated Learning
- arxiv url: http://arxiv.org/abs/2205.01556v1
- Date: Tue, 3 May 2022 15:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 16:07:33.403427
- Title: Privacy Amplification via Random Participation in Federated Learning
- Title(参考訳): フェデレーション学習におけるランダム参加によるプライバシ増幅
- Authors: Burak Hasircioglu and Deniz Gunduz
- Abstract要約: フェデレートされた環境では、クライアントのランダムな参加に加えて、ローカルデータセットのサブサンプリングも検討する。
ローカルデータセットのサイズが小さい場合には、ランダムな参加によるプライバシ保証が集中的な設定に近いことを示す。
- 参考スコア(独自算出の注目度): 3.8580784887142774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Running a randomized algorithm on a subsampled dataset instead of the entire
dataset amplifies differential privacy guarantees. In this work, in a federated
setting, we consider random participation of the clients in addition to
subsampling their local datasets. Since such random participation of the
clients creates correlation among the samples of the same client in their
subsampling, we analyze the corresponding privacy amplification via non-uniform
subsampling. We show that when the size of the local datasets is small, the
privacy guarantees via random participation is close to those of the
centralized setting, in which the entire dataset is located in a single host
and subsampled. On the other hand, when the local datasets are large, observing
the output of the algorithm may disclose the identities of the sampled clients
with high confidence. Our analysis reveals that, even in this case, privacy
guarantees via random participation outperform those via only local
subsampling.
- Abstract(参考訳): データセット全体ではなく、サブサンプルデータセットでランダム化アルゴリズムを実行することで、差分プライバシー保証が増幅される。
本研究では,フェデレーション環境では,ローカルデータセットのサブサンプリングに加えて,クライアントのランダムな参加も検討する。
このようなクライアントのランダムな参加は、サブサンプリングにおける同一クライアントのサンプル間で相関関係を生じさせるので、非一様サブサンプリングによる対応するプライバシ増幅を分析する。
ローカルデータセットのサイズが小さい場合、ランダムな参加によるプライバシ保証は、データセット全体が単一のホストに配置されてサブサンプリングされる集中的な設定に近くなることを示す。
一方、ローカルデータセットが大きい場合には、アルゴリズムの出力を観察することで、サンプリングされたクライアントのアイデンティティを高い信頼性で開示することができる。
私たちの分析では、たとえこの場合であっても、ランダムな参加によるプライバシー保証は、ローカルなサブサンプリングによってのみより優れています。
関連論文リスト
- A collaborative ensemble construction method for federated random forest [3.245822581039027]
本研究では,非IIDデータによる性能向上を目的とした,新しいアンサンブル構築手法を用いたランダムな森林群集構築手法を提案する。
クライアントのデータのプライバシを維持するため、各ノードに到達したクライアントのローカルデータのサンプルから特定された多数決クラスラベルに、リーフノードに格納された情報を格納する。
論文 参考訳(メタデータ) (2024-07-27T07:21:45Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Releasing survey microdata with exact cluster locations and additional
privacy safeguards [77.34726150561087]
本稿では,プライバシ保護を付加した独自のマイクロデータの有用性を活用した,代替的なマイクロデータ配信戦略を提案する。
当社の戦略は, 再識別の試みにおいても, 任意の属性に対する再識別リスクを60~80%削減する。
論文 参考訳(メタデータ) (2022-05-24T19:37:11Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Oblivious Sampling Algorithms for Private Data Analysis [10.990447273771592]
データセットのサンプル上で実行されるクエリに基づいて,セキュアでプライバシ保護されたデータ解析について検討する。
信頼された実行環境(TEE)は、クエリ計算中にデータの内容を保護するために使用できる。
TEEsにおける差分プライベート(DP)クエリのサポートは、クエリ出力が明らかにされたときの記録プライバシを提供する。
論文 参考訳(メタデータ) (2020-09-28T23:45:30Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。