論文の概要: Asynchronous Federated Learning with Reduced Number of Rounds and with
Differential Privacy from Less Aggregated Gaussian Noise
- arxiv url: http://arxiv.org/abs/2007.09208v1
- Date: Fri, 17 Jul 2020 19:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:30:16.747443
- Title: Asynchronous Federated Learning with Reduced Number of Rounds and with
Differential Privacy from Less Aggregated Gaussian Noise
- Title(参考訳): 低集積ガウス雑音によるラウンド数削減と差分プライバシによる非同期フェデレーション学習
- Authors: Marten van Dijk, Nhuong V. Nguyen, Toan N. Nguyen, Lam M. Nguyen, Quoc
Tran-Dinh, Phuong Ha Nguyen
- Abstract要約: 本稿では,待ち時間を削減し,ネットワーク全体の通信時間を短縮する非同期フェデレーション学習のための新しいアルゴリズムを提案する。
強凸目的関数に対する厳密な理論的解析とシミュレーション結果を提供する。
- 参考スコア(独自算出の注目度): 26.9902939745173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The feasibility of federated learning is highly constrained by the
server-clients infrastructure in terms of network communication. Most newly
launched smartphones and IoT devices are equipped with GPUs or sufficient
computing hardware to run powerful AI models. However, in case of the original
synchronous federated learning, client devices suffer waiting times and regular
communication between clients and server is required. This implies more
sensitivity to local model training times and irregular or missed updates,
hence, less or limited scalability to large numbers of clients and convergence
rates measured in real time will suffer. We propose a new algorithm for
asynchronous federated learning which eliminates waiting times and reduces
overall network communication - we provide rigorous theoretical analysis for
strongly convex objective functions and provide simulation results. By adding
Gaussian noise we show how our algorithm can be made differentially private --
new theorems show how the aggregated added Gaussian noise is significantly
reduced.
- Abstract(参考訳): フェデレーション学習の可能性は、ネットワーク通信の観点でサーバ・クライアント・インフラストラクチャーによって厳しく制約されている。
最新のスマートフォンやiotデバイスの多くは、強力なaiモデルを実行するためのgpuや十分な計算ハードウェアを備えている。
しかし,従来の同期フェデレーション学習の場合,クライアントデバイスは待ち時間に悩まされ,クライアントとサーバ間の定期的な通信が要求される。
これは、ローカルモデルのトレーニング時間に対する感度が向上し、不規則または不規則な更新や更新が遅れていることを意味するため、多数のクライアントに対するスケーラビリティが低く、あるいは制限されているため、リアルタイムに測定される収束率が低下する。
本研究では,待ち時間を排除し,ネットワーク全体の通信量を削減する非同期連帯学習のための新しいアルゴリズムを提案し,強凸目的関数に対する厳密な理論解析とシミュレーション結果を提供する。
ガウス雑音を追加することによって、我々のアルゴリズムを微分プライベートにする方法を示す - 新しい定理は、集約されたガウス雑音が大幅に減少することを示す。
関連論文リスト
- FedCompass: Efficient Cross-Silo Federated Learning on Heterogeneous
Client Devices using a Computing Power Aware Scheduler [5.550660753625296]
クロスサイロフェデレーション学習は、ローカルデータセットのプライバシを損なうことなく、AIモデルを協調的にトレーニングする、有望なソリューションを提供する。
本稿では,サーバ側で計算パワースケジューラを組み込んだ,半同期型フェデレーション学習アルゴリズムを提案する。
上位クライアントでフェデレート学習を行う場合,Fedは他のアルゴリズムよりも高速な収束と精度を実現することを示す。
論文 参考訳(メタデータ) (2023-09-26T05:03:13Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FAVANO: Federated AVeraging with Asynchronous NOdes [14.412305295989444]
本稿では,資源制約環境下でのディープニューラルネットワーク(DNN)のトレーニングのための,新しい集中型非同期フェデレートラーニング(FL)フレームワークであるFAVANOを提案する。
論文 参考訳(メタデータ) (2023-05-25T14:30:17Z) - Communication-Efficient Device Scheduling for Federated Learning Using
Stochastic Optimization [26.559267845906746]
Time Learning(FL)は、ユーザのローカルデータセットをプライバシ保存形式で利用する分散機械学習において有用なツールである。
本稿では,非効率収束境界アルゴリズムを提案する。
また、電力制約下での収束境界と平均通信の関数を最小化する新しい選択および電力割当アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-19T23:25:24Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - To Talk or to Work: Delay Efficient Federated Learning over Mobile Edge
Devices [13.318419040823088]
モバイルデバイスは、中央サーバの調整の下で、自身のデータに基づいてモデルをトレーニングするために協力する。
データの中心的な可用性がなければ、計算ノードは収束を達成するためにしばしばモデル更新を伝える必要がある。
本稿では,モデルが収束するために必要な全時間(計算待ち時間と通信待ち時間の両方)と通信ラウンドを削減できる遅延効率FL機構を提案する。
論文 参考訳(メタデータ) (2021-11-01T00:35:32Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Wireless Federated Learning with Limited Communication and Differential
Privacy [21.328507360172203]
本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,リモートユーザにおけるローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。
論文 参考訳(メタデータ) (2021-06-01T15:23:12Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。