論文の概要: A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison
- arxiv url: http://arxiv.org/abs/2110.10223v1
- Date: Tue, 19 Oct 2021 19:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:29:26.579761
- Title: A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison
- Title(参考訳): 普及型計算のためのフェデレーション学習集約アルゴリズムの評価と比較
- Authors: Sannara Ek, Fran\c{c}ois Portet, Philippe Lalanda, German Vega
- Abstract要約: 広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pervasive computing promotes the installation of connected devices in our
living spaces in order to provide services. Two major developments have gained
significant momentum recently: an advanced use of edge resources and the
integration of machine learning techniques for engineering applications. This
evolution raises major challenges, in particular related to the appropriate
distribution of computing elements along an edge-to-cloud continuum. About
this, Federated Learning has been recently proposed for distributed model
training in the edge. The principle of this approach is to aggregate models
learned on distributed clients in order to obtain a new, more general model.
The resulting model is then redistributed to clients for further training. To
date, the most popular federated learning algorithm uses coordinate-wise
averaging of the model parameters for aggregation. However, it has been shown
that this method is not adapted in heterogeneous environments where data is not
identically and independently distributed (non-iid). This corresponds directly
to some pervasive computing scenarios where heterogeneity of devices and users
challenges machine learning with the double objective of generalization and
personalization. In this paper, we propose a novel aggregation algorithm,
termed FedDist, which is able to modify its model architecture (here, deep
neural network) by identifying dissimilarities between specific neurons amongst
the clients. This permits to account for clients' specificity without impairing
generalization. Furthermore, we define a complete method to evaluate federated
learning in a realistic way taking generalization and personalization into
account.
Using this method, FedDist is extensively tested and compared with three
state-of-the-art federated learning algorithms on the pervasive domain of Human
Activity Recognition with smartphones.
- Abstract(参考訳): 広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
この進化は、特にエッジからクラウドへの連続体に沿ったコンピューティング要素の適切な分布に関連する大きな課題を提起する。
これに関して、Federated Learningは、エッジでの分散モデルトレーニングのために最近提案されている。
このアプローチの原則は、新しいより一般的なモデルを得るために、分散クライアントで学習したモデルを集約することです。
得られたモデルは、さらなるトレーニングのためにクライアントに再配布される。
現在最も人気のあるフェデレーション学習アルゴリズムは、アグリゲーションのためのモデルパラメータの座標的平均化を用いている。
しかし、この手法は、データが同一かつ独立に分散されていない異種環境には適用されないことが示されている。
これは、デバイスとユーザの異質性が一般化とパーソナライゼーションの二重目的によって機械学習に挑戦する、広範なコンピューティングシナリオと直接対応している。
本稿では,フェデストと呼ばれる新しい凝集アルゴリズムを提案する。このアルゴリズムは,クライアント間の特定のニューロン間の類似性を識別することで,そのモデルアーキテクチャ(ディープニューラルネットワーク)を変更することができる。
これにより、一般化を損なうことなく、クライアントの特異性を考慮できる。
さらに、一般化とパーソナライゼーションを考慮して、現実的な方法でフェデレーション学習を評価するための完全な方法を定義する。
この手法を用いてFedDistを広範にテストし、スマートフォンによるヒューマンアクティビティ認識の広範領域における最先端の3つのフェデレーション学習アルゴリズムと比較する。
関連論文リスト
- Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones [0.5039813366558306]
フェデレートラーニング(FL)は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
本稿では,FedDistと呼ばれる新しいFLアルゴリズムを提案する。
その結果、FedDistが異種データに適応できることと、FLが非同期な状況に対処できることが示されている。
論文 参考訳(メタデータ) (2022-10-30T18:47:23Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。