論文の概要: Federated Learning Aggregation: New Robust Algorithms with Guarantees
- arxiv url: http://arxiv.org/abs/2205.10864v1
- Date: Sun, 22 May 2022 16:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 21:43:55.447500
- Title: Federated Learning Aggregation: New Robust Algorithms with Guarantees
- Title(参考訳): フェデレーション学習アグリゲーション:保証付き新しいロバストアルゴリズム
- Authors: Adnan Ben Mansour, Gaia Carenini, Alexandre Duplessis and David
Naccache
- Abstract要約: エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 63.96013144017572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has been recently proposed for distributed model training
at the edge. The principle of this approach is to aggregate models learned on
distributed clients to obtain a new more general "average" model (FedAvg). The
resulting model is then redistributed to clients for further training. To date,
the most popular federated learning algorithm uses coordinate-wise averaging of
the model parameters for aggregation. In this paper, we carry out a complete
general mathematical convergence analysis to evaluate aggregation strategies in
a federated learning framework. From this, we derive novel aggregation
algorithms which are able to modify their model architecture by differentiating
client contributions according to the value of their losses. Moreover, we go
beyond the assumptions introduced in theory, by evaluating the performance of
these strategies and by comparing them with the one of FedAvg in classification
tasks in both the IID and the Non-IID framework without additional hypothesis.
- Abstract(参考訳): Federated Learningは、エッジでの分散モデルトレーニングのために最近提案されている。
このアプローチの原則は、分散クライアントで学んだモデルを集約して、より一般的な"平均"モデル(FedAvg)を得ることです。
得られたモデルは、さらなるトレーニングのためにクライアントに再配布される。
現在最も人気のあるフェデレーション学習アルゴリズムは、アグリゲーションのためのモデルパラメータの座標的平均化を用いている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全一般数学的収束解析を行う。
そこで我々は,損失の値に応じてクライアントのコントリビューションを識別することで,モデルアーキテクチャを変更可能な新しい集約アルゴリズムを導出する。
さらに,これらの戦略の性能を評価し,追加仮説を伴わずに iid と非 iid フレームワークの分類タスクで fedavg と比較することで,理論に導入された仮定を超越する。
関連論文リスト
- Vanishing Variance Problem in Fully Decentralized Neural-Network Systems [0.8212195887472242]
フェデレートラーニングとゴシップラーニングは、データプライバシの懸念を軽減するために考案された方法論だ。
本研究では,分散補正モデル平均化アルゴリズムを提案する。
シミュレーションの結果,Gossip学習は,フェデレート学習に匹敵する収束効率を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-04-06T12:49:20Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Struct-MMSB: Mixed Membership Stochastic Blockmodels with Interpretable
Structured Priors [13.712395104755783]
混合メンバシップブロックモデル(MMSB)は、コミュニティ検出とネットワーク生成のための一般的なフレームワークである。
最近開発された統計リレーショナル学習モデルであるヒンジロスマルコフ確率場(HL-MRF)を用いた柔軟なMMSBモデル、textitStruct-MMSBを提案する。
我々のモデルは、観測された特徴と会員分布の複雑な組み合わせとして符号化された有意義な潜伏変数を用いて、実世界のネットワークにおける潜伏特性を学習することができる。
論文 参考訳(メタデータ) (2020-02-21T19:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。