論文の概要: Federated Loss Exploration for Improved Convergence on Non-IID Data
- arxiv url: http://arxiv.org/abs/2506.18640v1
- Date: Mon, 23 Jun 2025 13:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.003366
- Title: Federated Loss Exploration for Improved Convergence on Non-IID Data
- Title(参考訳): 非IIDデータの収束性向上のためのフェデレーションロス探索
- Authors: Christian Internò, Markus Olhofer, Yaochu Jin, Barbara Hammer,
- Abstract要約: Federated Loss Exploration (FedLEx)は、これらの課題に対処するために特別に設計された革新的なアプローチである。
FedLExは、既存のFLメソッドの非IID設定における欠点に特化している。
最先端のFLアルゴリズムによる実験により,性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 20.979550470097823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a groundbreaking paradigm in machine learning (ML), offering privacy-preserving collaborative model training across diverse datasets. Despite its promise, FL faces significant hurdles in non-identically and independently distributed (non-IID) data scenarios, where most existing methods often struggle with data heterogeneity and lack robustness in performance. This paper introduces Federated Loss Exploration (FedLEx), an innovative approach specifically designed to tackle these challenges. FedLEx distinctively addresses the shortcomings of existing FL methods in non-IID settings by optimizing its learning behavior for scenarios in which assumptions about data heterogeneity are impractical or unknown. It employs a federated loss exploration technique, where clients contribute to a global guidance matrix by calculating gradient deviations for model parameters. This matrix serves as a strategic compass to guide clients' gradient updates in subsequent FL rounds, thereby fostering optimal parameter updates for the global model. FedLEx effectively navigates the complex loss surfaces inherent in non-IID data, enhancing knowledge transfer in an efficient manner, since only a small number of epochs and small amount of data are required to build a strong global guidance matrix that can achieve model convergence without the need for additional data sharing or data distribution statics in a large client scenario. Our extensive experiments with state-of-the art FL algorithms demonstrate significant improvements in performance, particularly under realistic non-IID conditions, thus highlighting FedLEx's potential to overcome critical barriers in diverse FL applications.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は機械学習(ML)における画期的なパラダイムとして登場し、さまざまなデータセットにわたるプライバシ保護協調モデルトレーニングを提供する。
その約束にもかかわらず、FLは独立に分散された(IIDではない)データシナリオにおいて大きなハードルに直面している。
本稿では、これらの課題に対処するために特別に設計された革新的なアプローチであるFederated Loss Exploration(FedLEx)を紹介する。
FedLExは、データ不均一性に関する仮定が非現実的または未知のシナリオに対して学習行動を最適化することで、既存のFLメソッドの非IID設定における欠点を顕著に解決する。
モデルパラメータの勾配偏差を計算することにより,クライアントがグローバルなガイダンス行列に寄与する,フェデレートされた損失探索手法を採用している。
この行列は、後のFLラウンドにおけるクライアントの勾配更新をガイドする戦略的コンパスとして機能し、グローバルモデルに対する最適なパラメータ更新を促進する。
大規模なクライアントシナリオにおいてデータ共有やデータ分散静的を必要とせずに、モデル収束を達成できる強力なグローバルガイダンス行列を構築するには、少数のエポックスと少量のデータしか必要としないため、FedLExは非IIDデータに固有の複雑な損失曲面を効果的にナビゲートし、知識伝達を効率化する。
我々の最先端のFLアルゴリズムによる広範な実験は、特に現実的な非IID条件下では、性能が著しく向上していることを示し、様々なFLアプリケーションにおいて重要な障壁を克服するFedlexの可能性を強調した。
関連論文リスト
- FedMHO: Heterogeneous One-Shot Federated Learning Towards Resource-Constrained Edge Devices [12.08958206272527]
フェデレートラーニング(FL)はエッジコンピューティングのシナリオにおいてますます採用され、多くの異種クライアントが制約や十分なリソースの下で運用されている。
ワンショットFLは通信オーバーヘッドを軽減するための有望なアプローチとして登場し、モデルヘテロジニアスFLはクライアント間の多様なコンピューティングリソースの問題を解決する。
本稿では,リソースに制約のあるデバイス上で,リソースに十分なクライアントと軽量な生成モデルに対して,詳細な分類モデルを活用するFedMHOという新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T15:54:56Z) - Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedEGG: Federated Learning with Explicit Global Guidance [90.04705121816185]
フェデレートラーニング(FL)は、そのプライバシー保護の性質から、多様なアプリケーションにとって大きな可能性を秘めている。
既存の手法は、最適化ベースのクライアント制約、適応的なクライアント選択、事前訓練されたモデルや合成データの使用によってこれらの課題に対処するのに役立つ。
我々はbftextFedEGGを提案する。bftextFedEGGは、よく定義された、容易に収束できる学習タスクを用いて、グローバルガイドタスクを構築する新しいFLアルゴリズムである。
論文 参考訳(メタデータ) (2024-04-18T04:25:21Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Feature Matching Data Synthesis for Non-IID Federated Learning [7.740333805796447]
フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:49:39Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。