論文の概要: VAFL: a Method of Vertical Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2007.06081v1
- Date: Sun, 12 Jul 2020 20:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:39:12.576169
- Title: VAFL: a Method of Vertical Asynchronous Federated Learning
- Title(参考訳): vafl:垂直型非同期フェデレーション学習の一手法
- Authors: Tianyi Chen, Xiao Jin, Yuejiao Sun, and Wotao Yin
- Abstract要約: 水平学習(FL)は、同じ機能のセットを共有するマルチクライアントデータを扱う。
垂直FLは、異なるクライアントからの摂動を組み合わせたより良い予測器を訓練する。
- 参考スコア(独自算出の注目度): 40.423372614317195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Horizontal Federated learning (FL) handles multi-client data that share the
same set of features, and vertical FL trains a better predictor that combine
all the features from different clients. This paper targets solving vertical FL
in an asynchronous fashion, and develops a simple FL method. The new method
allows each client to run stochastic gradient algorithms without coordination
with other clients, so it is suitable for intermittent connectivity of clients.
This method further uses a new technique of perturbed local embedding to ensure
data privacy and improve communication efficiency. Theoretically, we present
the convergence rate and privacy level of our method for strongly convex,
nonconvex and even nonsmooth objectives separately. Empirically, we apply our
method to FL on various image and healthcare datasets. The results compare
favorably to centralized and synchronous FL methods.
- Abstract(参考訳): horizontal federated learning(fl)は、同じ機能セットを共有するマルチクライアントデータを処理し、垂直flは、異なるクライアントのすべての機能を組み合わせるより良い予測器をトレーニングする。
本稿では,垂直FLを非同期に解くことを目標とし,単純なFL法を開発した。
新しい手法では,各クライアントが他のクライアントと協調することなく確率勾配アルゴリズムを実行できるので,クライアントの断続接続に適している。
この手法はさらに、データプライバシの確保と通信効率の向上のために、摂動型局所埋め込みの新しい手法を使用する。
理論的には,本手法の収束率とプライバシレベルについて,強凸,非凸,さらには非滑らかな目的を別々に示す。
経験的に、この手法を様々な画像と医療データセットのflに適用する。
その結果,集中型および同期型FL法と比較した。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Achieving Linear Speedup in Asynchronous Federated Learning with
Heterogeneous Clients [30.135431295658343]
フェデレートラーニング(FL)は、異なるクライアントにローカルに保存されているデータを交換したり転送したりすることなく、共通のグローバルモデルを学ぶことを目的としている。
本稿では,DeFedAvgという,効率的な連邦学習(AFL)フレームワークを提案する。
DeFedAvgは、望まれる線形スピードアップ特性を達成する最初のAFLアルゴリズムであり、高いスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-17T05:22:46Z) - Enhancing Convergence in Federated Learning: A Contribution-Aware
Asynchronous Approach [0.0]
Federated Learning(FL)は、クライアントがプライバシを保持しながらデータ上でモデルをトレーニングできる分散機械学習パラダイムである。
フェデレート平均化(FedAvg)やその変種などのFLアルゴリズムは、多くのシナリオにおいてよく収束することが示されている。
しかし、これらの手法ではクライアントがローカル更新を同期的にサーバにアップロードする必要があるため、現実的なFL設定では遅くて信頼性が低い。
本稿では、受信した更新の安定性と統計的不均一性を考慮に入れたコントリビューション対応非同期FL法を提案する。
論文 参考訳(メタデータ) (2024-02-16T12:10:53Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - User-Centric Federated Learning: Trading off Wireless Resources for
Personalization [18.38078866145659]
フェデレートラーニング(FL)システムでは、統計的不均一性はアルゴリズム収束時間を増やし、一般化性能を低下させる。
FLが課すプライバシー制約に違反することなく、上記の問題に対処するためには、パーソナライズされたFLメソッドは、データに直接アクセスすることなく、統計的に類似したクライアントを結合する必要がある。
本研究では,容易に利用できる勾配情報に基づいて,FLクライアント毎にパーソナライズされたモデルを生成可能なユーザ中心集約ルールを設計する。
提案アルゴリズムは,平均精度,ノード性能,通信オーバヘッドの訓練において,パーソナライズされたFLベースラインを上回っている。
論文 参考訳(メタデータ) (2023-04-25T15:45:37Z) - Federated Learning with Flexible Control [30.65854375019346]
フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
論文 参考訳(メタデータ) (2022-12-16T14:21:29Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Personalized Federated Learning with Moreau Envelopes [16.25105865597947]
フェデレートラーニング(Federated Learning, FL)は、分散されたプライバシ保護機械学習技術である。
FLに関連する課題の1つは、クライアント間の統計的多様性である。
封筒正規化損失関数を用いたパーソナライズFL(FedFedMe)のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T00:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。