論文の概要: Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones
- arxiv url: http://arxiv.org/abs/2210.16918v1
- Date: Sun, 30 Oct 2022 18:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:10:31.991760
- Title: Evaluation and comparison of federated learning algorithms for Human
Activity Recognition on smartphones
- Title(参考訳): スマートフォン上での人間行動認識のための連合学習アルゴリズムの評価と比較
- Authors: Sannara Ek, Fran\c{c}ois Portet, Philippe Lalanda, German Vega
- Abstract要約: フェデレートラーニング(FL)は、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
本稿では,FedDistと呼ばれる新しいFLアルゴリズムを提案する。
その結果、FedDistが異種データに適応できることと、FLが非同期な状況に対処できることが示されている。
- 参考スコア(独自算出の注目度): 0.5039813366558306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pervasive computing promotes the integration of smart devices in our living
spaces to develop services providing assistance to people. Such smart devices
are increasingly relying on cloud-based Machine Learning, which raises
questions in terms of security (data privacy), reliance (latency), and
communication costs. In this context, Federated Learning (FL) has been
introduced as a new machine learning paradigm enhancing the use of local
devices. At the server level, FL aggregates models learned locally on
distributed clients to obtain a more general model. In this way, no private
data is sent over the network, and the communication cost is reduced.
Unfortunately, however, the most popular federated learning algorithms have
been shown not to be adapted to some highly heterogeneous pervasive computing
environments. In this paper, we propose a new FL algorithm, termed FedDist,
which can modify models (here, deep neural network) during training by
identifying dissimilarities between neurons among the clients. This permits to
account for clients' specificity without impairing generalization. FedDist
evaluated with three state-of-the-art federated learning algorithms on three
large heterogeneous mobile Human Activity Recognition datasets. Results have
shown the ability of FedDist to adapt to heterogeneous data and the capability
of FL to deal with asynchronous situations.
- Abstract(参考訳): 普及型コンピューティングは、人々の支援を提供するサービスを開発するために、私たちのリビングスペースにおけるスマートデバイスの統合を促進する。
このようなスマートデバイスは、セキュリティ(データプライバシ)、依存(レイテンシ)、通信コストといった面で疑問を提起するクラウドベースの機械学習にますます依存している。
この文脈では、フェデレーション学習(fl)が、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
サーバレベルでは、flは分散クライアントでローカルに学習したモデルを集約し、より一般的なモデルを得る。
これにより、ネットワークを介してプライベートデータが送信されず、通信コストが削減される。
しかし、残念ながら、最も人気のあるフェデレーション学習アルゴリズムは、非常に異質な広汎なコンピューティング環境に適応しないことが示されている。
本稿では,学習中のモデル(深層ニューラルネットワーク)を,クライアント間のニューロン間の相似性を識別することで修正できる新しいflアルゴリズムであるfeedistを提案する。
これにより、一般化を損なうことなく、クライアントの特異性を考慮できる。
FedDistは、3つの大きな異種移動人活動認識データセット上で、最先端の3つのフェデレーション学習アルゴリズムを評価した。
その結果、フェディストが異種データに適応する能力と、flが非同期な状況に対処する能力が示された。
関連論文リスト
- Gradient-Congruity Guided Federated Sparse Training [31.793271982853188]
Federated Learning(FL)は、データプライバシを保持しながら、このプロセスを容易にする分散機械学習技術である。
FLはまた、リソース制約のあるデバイスに関する高い計算コストや通信コストといった課題に直面している。
本研究では,動的スパーストレーニングと勾配一致検査を統合したFedSGC(Gradient-Congruity Guided Federated Sparse Training)を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:29:48Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning [0.0]
フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
本稿では,Argonneのプライバシ保護フェデレート学習フレームワークであるAPPFLを紹介する。
APPFLは、実装されたプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、さまざまなFLアルゴリズムをプライバシ保存技術でシミュレートし、デプロイすることを可能にする。
論文 参考訳(メタデータ) (2022-02-08T06:23:05Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Concept drift detection and adaptation for federated and continual
learning [55.41644538483948]
スマートデバイスは環境から大量のデータを収集することができる。
このデータは機械学習モデルのトレーニングに適しており、その振る舞いを大幅に改善することができる。
そこで本研究では,Concept-Drift-Aware Federated Averagingと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-27T17:01:58Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。