論文の概要: FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning
- arxiv url: http://arxiv.org/abs/2210.07615v1
- Date: Fri, 14 Oct 2022 08:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:19:22.130991
- Title: FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning
- Title(参考訳): fedfm:連携学習におけるデータ不均一性のためのアンカー型特徴マッチング
- Authors: Rui Ye, Zhenyang Ni, Chenxin Xu, Jianyu Wang, Siheng Chen, Yonina C.
Eldar
- Abstract要約: 本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
- 参考スコア(独自算出の注目度): 91.74206675452888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key challenges in federated learning (FL) is local data
distribution heterogeneity across clients, which may cause inconsistent feature
spaces across clients. To address this issue, we propose a novel method FedFM,
which guides each client's features to match shared category-wise anchors
(landmarks in feature space). This method attempts to mitigate the negative
effects of data heterogeneity in FL by aligning each client's feature space.
Besides, we tackle the challenge of varying objective function and provide
convergence guarantee for FedFM. In FedFM, to mitigate the phenomenon of
overlapping feature spaces across categories and enhance the effectiveness of
feature matching, we further propose a more precise and effective feature
matching loss called contrastive-guiding (CG), which guides each local feature
to match with the corresponding anchor while keeping away from
non-corresponding anchors. Additionally, to achieve higher efficiency and
flexibility, we propose a FedFM variant, called FedFM-Lite, where clients
communicate with server with fewer synchronization times and communication
bandwidth costs. Through extensive experiments, we demonstrate that FedFM with
CG outperforms several works by quantitative and qualitative comparisons.
FedFM-Lite can achieve better performance than state-of-the-art methods with
five to ten times less communication costs.
- Abstract(参考訳): 統合学習(FL)における重要な課題の1つは、クライアント間の局所的なデータ分散の不均一性である。
この問題に対処するために,各クライアントの特徴を共有カテゴリーアンカー(特徴空間のランドマーク)にマッチさせる新しいFedFM法を提案する。
この方法は、各クライアントの特徴空間を整列させることにより、FLにおけるデータ不均一性の負の効果を軽減する。
さらに,目的関数の可変化という課題に取り組み,feedfmに収束保証を提供する。
また,FedFMでは,カテゴリ間で重複する特徴空間の現象を緩和し,特徴マッチングの有効性を高めるために,より正確かつ効果的な特徴マッチング損失であるコントラッシブガイド(CG)を提案する。
さらに,高い効率と柔軟性を実現するために,feedfm-lite と呼ばれる,同期時間と通信帯域幅のコストの少ないサーバとクライアントが通信する手法を提案する。
大規模実験により,CGを用いたFedFMは定量的および定性的な比較によって,いくつかの研究より優れることを示した。
fedfm-liteは5倍から10倍の通信コストで最先端の手法よりも優れた性能を達成できる。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Towards Fairness in Provably Communication-Efficient Federated Recommender Systems [8.215115151660958]
本研究では,通信効率の向上に必要なクライアントの理想的な数を決定するサンプル境界を確立する。
本研究では,RS-FairFRSが通信コストを削減できることを実証的に示す。
ランダムサンプリングにより通信効率は向上するが,本研究では,トレーニングに参加するアクティブクライアントの保護属性を明らかにすることなく,公平性を実現するために,新しい二相二相更新手法を提案する。
論文 参考訳(メタデータ) (2024-05-03T01:53:17Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Achieving Linear Speedup in Asynchronous Federated Learning with
Heterogeneous Clients [30.135431295658343]
フェデレートラーニング(FL)は、異なるクライアントにローカルに保存されているデータを交換したり転送したりすることなく、共通のグローバルモデルを学ぶことを目的としている。
本稿では,DeFedAvgという,効率的な連邦学習(AFL)フレームワークを提案する。
DeFedAvgは、望まれる線形スピードアップ特性を達成する最初のAFLアルゴリズムであり、高いスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-17T05:22:46Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。