論文の概要: Communication-Efficient Online Federated Learning Framework for
Nonlinear Regression
- arxiv url: http://arxiv.org/abs/2110.06556v1
- Date: Wed, 13 Oct 2021 08:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 23:45:00.191590
- Title: Communication-Efficient Online Federated Learning Framework for
Nonlinear Regression
- Title(参考訳): 非線形回帰のためのコミュニケーション効率の高いオンライン連合学習フレームワーク
- Authors: Vinay Chakravarthi Gogineni, Stefan Werner, Yih-Fang Huang, Anthony
Kuh
- Abstract要約: 本稿では,部分共有型オンラインフェデレーション学習フレームワーク(PSO-Fed)を提案する。
PSO-Fedは、クライアントが継続的ストリーミングデータを使用してローカルモデルを更新し、更新されたモデルの一部をサーバと共有することを可能にする。
実験の結果,PSO-Fed は Online-Fed よりも通信オーバーヘッドが著しく低い競争性能を達成できることがわかった。
- 参考スコア(独自算出の注目度): 5.67468104295976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) literature typically assumes that each client has a
fixed amount of data, which is unrealistic in many practical applications. Some
recent works introduced a framework for online FL (Online-Fed) wherein clients
perform model learning on streaming data and communicate the model to the
server; however, they do not address the associated communication overhead. As
a solution, this paper presents a partial-sharing-based online federated
learning framework (PSO-Fed) that enables clients to update their local models
using continuous streaming data and share only portions of those updated models
with the server. During a global iteration of PSO-Fed, non-participant clients
have the privilege to update their local models with new data. Here, we
consider a global task of kernel regression, where clients use a random Fourier
features-based kernel LMS on their data for local learning. We examine the mean
convergence of the PSO-Fed for kernel regression. Experimental results show
that PSO-Fed can achieve competitive performance with a significantly lower
communication overhead than Online-Fed.
- Abstract(参考訳): フェデレーション学習(fl)の文献では、一般的に各クライアントが一定の量のデータを持っていると仮定している。
いくつかの最近の研究は、クライアントがストリーミングデータ上でモデル学習を実行し、そのモデルをサーバに通信するオンラインFL(Online-Fed)のフレームワークを導入している。
そこで本論文では,クライアントが連続ストリーミングデータを用いてローカルモデルを更新し,更新されたモデルの一部をサーバと共有することのできる,部分共有ベースのオンラインフェデレーション学習フレームワーク(PSO-Fed)を提案する。
pso-fedのグローバルイテレーションの間、非参加のクライアントはローカルモデルを新しいデータで更新する特権を持つ。
ここでは,クライアントがランダムなフーリエ機能に基づくカーネルlmsをローカル学習に使用する,カーネル回帰のグローバルタスクについて検討する。
カーネル回帰に対するPSO-Fedの平均収束性を検討した。
実験の結果,PSO-Fed は Online-Fed よりも通信オーバーヘッドが著しく低い競争性能を達成できることがわかった。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning [5.21877373352943]
クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つです。
クライアントマッチングと分類器交換によりFedCMEという新しいFLフレームワークを提案する。
実験結果から,FedCMEはFedAvg,FedProx,MOON,FedRSよりも高い性能を示した。
論文 参考訳(メタデータ) (2023-07-17T15:40:45Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Communication and Storage Efficient Federated Split Learning [19.369076939064904]
Federated Split LearningはFLの並列モデルトレーニング原則を保存する。
サーバはクライアントごとに別々のモデルをメンテナンスしなければなりません。
本稿では,コミュニケーションと記憶の効率的なフェデレーションと分割学習戦略を提案する。
論文 参考訳(メタデータ) (2023-02-11T04:44:29Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。