論文の概要: Optimizing the Numbers of Queries and Replies in Federated Learning with
Differential Privacy
- arxiv url: http://arxiv.org/abs/2107.01895v1
- Date: Mon, 5 Jul 2021 09:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:38:58.652029
- Title: Optimizing the Numbers of Queries and Replies in Federated Learning with
Differential Privacy
- Title(参考訳): 差分プライバシーを用いたフェデレーション学習におけるクエリ数と応答数の最適化
- Authors: Yipeng Zhou and Xuezheng Liu and Yao Fu and Di Wu and Chao Li and Shui
Yu
- Abstract要約: フェデレートラーニング(FL)は、分散クライアントに対して、共有機械学習モデルを協調的にトレーニングする権限を与える。
悪意のあるユーザーはパラメーターで元のデータをクラックすることができる。
この欠陥を修正するため、差分プライバシー(DP)はFLクライアントに組み込まれ、元のパラメータを乱す。
- 参考スコア(独自算出の注目度): 36.81959449080198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) empowers distributed clients to collaboratively train
a shared machine learning model through exchanging parameter information.
Despite the fact that FL can protect clients' raw data, malicious users can
still crack original data with disclosed parameters. To amend this flaw,
differential privacy (DP) is incorporated into FL clients to disturb original
parameters, which however can significantly impair the accuracy of the trained
model. In this work, we study a crucial question which has been vastly
overlooked by existing works: what are the optimal numbers of queries and
replies in FL with DP so that the final model accuracy is maximized. In FL, the
parameter server (PS) needs to query participating clients for multiple global
iterations to complete training. Each client responds a query from the PS by
conducting a local iteration. Our work investigates how many times the PS
should query clients and how many times each client should reply the PS. We
investigate two most extensively used DP mechanisms (i.e., the Laplace
mechanism and Gaussian mechanisms). Through conducting convergence rate
analysis, we can determine the optimal numbers of queries and replies in FL
with DP so that the final model accuracy can be maximized. Finally, extensive
experiments are conducted with publicly available datasets: MNIST and FEMNIST,
to verify our analysis and the results demonstrate that properly setting the
numbers of queries and replies can significantly improve the final model
accuracy in FL with DP.
- Abstract(参考訳): federated learning(fl)は、パラメータ情報を交換することで、分散クライアントが共有機械学習モデルを協調的にトレーニングできるようにする。
flはクライアントの生データを保護できるが、悪意のあるユーザーは公開パラメータで元のデータをクラックすることができる。
この欠陥を修正するために、差分プライバシー(DP)をFLクライアントに組み込んで元のパラメータを乱し、トレーニングされたモデルの精度を著しく損なう可能性がある。
本研究では,DP を用いた FL におけるクエリと応答の最適な数と,最終的なモデルの精度を最大化するために,既存の研究で見過ごされてきた重要な問題について検討する。
flでは、パラメータサーバ(ps)は、トレーニングを完了させるために複数のグローバルイテレーションのために参加するクライアントに問い合わせる必要がある。
各クライアントは、ローカルイテレーションを実行して、psからのクエリに応答する。
私たちの研究は、PSがクライアントに問い合わせるべき回数と、各クライアントがPSに返信すべき回数を調べます。
我々は,最も広く用いられているdp機構(ラプラス機構とガウス機構)について検討する。
収束率解析を行うことで, fl における問い合わせ数と応答数を dp で決定し, 最終モデルの精度を最大化することができる。
最後に、mnist と femnist という公開データセットを用いて、分析の検証を行い、クエリ数と応答数を適切に設定することで dp による fl の最終的なモデルの精度を大幅に向上できることを示す。
関連論文リスト
- FedReMa: Improving Personalized Federated Learning via Leveraging the Most Relevant Clients [13.98392319567057]
Federated Learning (FL) は分散機械学習のパラダイムであり、分散計算と周期モデル合成によってグローバルに堅牢なモデルを実現する。
広く採用されているにもかかわらず、既存のFLとPFLの作業は、クラス不均衡の問題に包括的に対処していない。
本稿では,適応型クライアント間コラーニング手法を用いて,クラス不均衡に対処できる効率的なPFLアルゴリズムであるFedReMaを提案する。
論文 参考訳(メタデータ) (2024-11-04T05:44:28Z) - DP-DyLoRA: Fine-Tuning Transformer-Based Models On-Device under Differentially Private Federated Learning using Dynamic Low-Rank Adaptation [15.023077875990614]
フェデレートラーニング(FL)は、クライアントがローカルデータをサーバと共有することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
差分プライバシ(DP)は、クライアントのコントリビューションにランダム性を加えるメカニズムを備えた、正式なプライバシ保証を提供することによって、そのようなリークに対処する。
差分プライバシーと組み合わせてDP-DyLoRAと呼ぶ適応手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T10:10:37Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。