論文の概要: Efficient Federated Learning over Multiple Access Channel with
Differential Privacy Constraints
- arxiv url: http://arxiv.org/abs/2005.07776v2
- Date: Sun, 1 Nov 2020 14:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:11:16.099265
- Title: Efficient Federated Learning over Multiple Access Channel with
Differential Privacy Constraints
- Title(参考訳): ディファレンシャルプライバシ制約を持つ複数アクセスチャネル上での効率的なフェデレーション学習
- Authors: Amir Sonee and Stefano Rini
- Abstract要約: マルチアクセスチャネル(MAC)上でのクライアントとパラメータサーバ(PS)間のデジタル通信を通じて、連邦学習(FL)の問題を研究する。
本稿では,分散デジタル勾配(D-DSGD)を各クライアントが行う方式を提案する。
提案方式の性能は,所定のMAC容量に対する収束率とDPレベルの観点から評価する。
- 参考スコア(独自算出の注目度): 9.251773744318118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the problem of federated learning (FL) through digital
communication between clients and a parameter server (PS) over a multiple
access channel (MAC), also subject to differential privacy (DP) constraints, is
studied. More precisely, we consider the setting in which clients in a
centralized network are prompted to train a machine learning model using their
local datasets. The information exchange between the clients and the PS takes
places over a MAC channel and must also preserve the DP of the local datasets.
Accordingly, the objective of the clients is to minimize the training loss
subject to (i) rate constraints for reliable communication over the MAC and
(ii) DP constraint over the local datasets. For this optimization scenario, we
proposed a novel consensus scheme in which digital distributed stochastic
gradient descent (D-DSGD) is performed by each client. To preserve DP, a
digital artificial noise is also added by the users to the locally quantized
gradients. The performance of the scheme is evaluated in terms of the
convergence rate and DP level for a given MAC capacity. The performance is
optimized over the choice of the quantization levels and the artificial noise
parameters. Numerical evaluations are presented to validate the performance of
the proposed scheme.
- Abstract(参考訳): 本稿では,クライアントとパラメータサーバ(ps)間のデジタル通信を通じて,ディファレンシャルプライバシ(dp)制約を受けるマルチアクセスチャネル(mac)上でのフェデレーション学習(fl)の問題について検討する。
より正確には、集中型ネットワーク内のクライアントがローカルデータセットを使用して機械学習モデルをトレーニングするよう促される設定を検討する。
クライアントとPS間の情報交換はMACチャネル上で行われ、ローカルデータセットのDPを保存する必要がある。
したがって、クライアントの目的は、トレーニング損失を最小限にすることである。
(i)mac上の信頼できる通信のためのレート制約
(ii) ローカルデータセットに対するDP制約。
この最適化シナリオでは,デジタル分散確率勾配降下(D-DSGD)を各クライアントが行う新しいコンセンサス方式を提案する。
DPを保存するために、ユーザが局所的な量子化勾配にデジタル人工ノイズを加える。
提案方式の性能は,所定のMAC容量に対する収束率とDPレベルの観点から評価する。
性能は、量子化レベルと人工雑音パラメータの選択により最適化される。
提案手法の性能を検証するために数値評価を行った。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Wireless Federated Learning with Limited Communication and Differential
Privacy [21.328507360172203]
本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,リモートユーザにおけるローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。
論文 参考訳(メタデータ) (2021-06-01T15:23:12Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。