論文の概要: FBFL: A Field-Based Coordination Approach for Data Heterogeneity in Federated Learning
- arxiv url: http://arxiv.org/abs/2502.08577v1
- Date: Wed, 12 Feb 2025 17:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:49:43.278112
- Title: FBFL: A Field-Based Coordination Approach for Data Heterogeneity in Federated Learning
- Title(参考訳): FBFL:フェデレートラーニングにおけるデータ不均一性のためのフィールドベースコーディネートアプローチ
- Authors: Davide Domini, Gianluca Aguzzi, Lukas Esterle, Mirko Viroli,
- Abstract要約: 本稿では、フィールドベースフェデレートラーニング(FBFL)を定式化し、MNIST、FashionMNIST、拡張MNISTデータセットを用いて広範に評価する。
IIDデータ条件下での動作において、FBFLは広く使われているFedAvgアルゴリズムと同等に動作することを示す。
挑戦的な非IIDシナリオでは、FBFLはFedAvgを上回るだけでなく、他の最先端のメソッドであるFedProxやScuffoldを上回っている。
- 参考スコア(独自算出の注目度): 1.079960007119637
- License:
- Abstract: In the last years, Federated learning (FL) has become a popular solution to train machine learning models in domains with high privacy concerns. However, FL scalability and performance face significant challenges in real-world deployments where data across devices are non-independently and identically distributed (non-IID). The heterogeneity in data distribution frequently arises from spatial distribution of devices, leading to degraded model performance in the absence of proper handling. Additionally, FL typical reliance on centralized architectures introduces bottlenecks and single-point-of-failure risks, particularly problematic at scale or in dynamic environments. To close this gap, we propose Field-Based Federated Learning (FBFL), a novel approach leveraging macroprogramming and field coordination to address these limitations through: (i) distributed spatial-based leader election for personalization to mitigate non-IID data challenges; and (ii) construction of a self-organizing, hierarchical architecture using advanced macroprogramming patterns. Moreover, FBFL not only overcomes the aforementioned limitations, but also enables the development of more specialized models tailored to the specific data distribution in each subregion. This paper formalizes FBFL and evaluates it extensively using MNIST, FashionMNIST, and Extended MNIST datasets. We demonstrate that, when operating under IID data conditions, FBFL performs comparably to the widely-used FedAvg algorithm. Furthermore, in challenging non-IID scenarios, FBFL not only outperforms FedAvg but also surpasses other state-of-the-art methods, namely FedProx and Scaffold, which have been specifically designed to address non-IID data distributions. Additionally, we showcase the resilience of FBFL's self-organizing hierarchical architecture against server failures.
- Abstract(参考訳): ここ数年、フェデレートラーニング(FL)は、高いプライバシー上の懸念のあるドメインで機械学習モデルをトレーニングする一般的なソリューションになっています。
しかし、FLのスケーラビリティとパフォーマンスは、デバイス間のデータが非独立に分散している(非IID)現実世界のデプロイメントにおいて重大な課題に直面している。
データ分布の不均一性は機器の空間分布からしばしば発生し、適切なハンドリングがなければモデル性能が劣化する。
さらに、集中型アーキテクチャへの典型的な依存は、ボトルネックと単一障害リスク、特にスケールや動的環境において問題を引き起こす。
このギャップを埋めるために、マクロプログラミングとフィールドコーディネートを活用した新しいアプローチであるフィールドベースフェデレートラーニング(FBFL)を提案する。
(i)非IIDデータ課題の軽減を目的とした個人化のための分散空間型リーダー選挙
(II)先進的なマクロプログラミングパターンを用いた自己組織化階層型アーキテクチャの構築。
さらに、FBFLは上記の制限を克服するだけでなく、各サブリージョンの特定のデータ分布に合わせて、より専門的なモデルの開発を可能にする。
本稿では、FBFLを形式化し、MNIST、FashionMNIST、Extended MNISTデータセットを用いて広範に評価する。
IIDデータ条件下での動作において、FBFLは広く使われているFedAvgアルゴリズムと同等に動作することを示す。
さらに、非IIDのシナリオでは、FBFLはFedAvgを上回るだけでなく、非IIDデータ分散に特化して設計されたFedProxやScaffoldといった最先端の手法も上回っている。
さらに,サーバ障害に対するFBFLの自己組織型階層アーキテクチャのレジリエンスを示す。
関連論文リスト
- Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - DFML: Decentralized Federated Mutual Learning [13.093065054019197]
本稿では,非制限的不均一モデルをサポートし,パブリックデータへの依存を回避するために,サーバレスな分散フェデレーション相互学習(DFML)フレームワークを提案する。
DFMLは収束速度と大域的精度の両方において一貫した有効性を示した。
論文 参考訳(メタデータ) (2024-02-02T19:35:05Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Modular Federated Learning [0.0]
フェデレートラーニング(Federated Learning)は、ネットワークの端で機械学習モデルをトレーニングするアプローチである。
本稿では,モデルを構成モジュールと操作モジュールに分割する統合学習フレームワークとしてModFLを提案する。
ModFLはCNNを用いてCIFAR-10とSTL-10の非IIDデータパーティションに対してFedPerより優れていることを示す。
論文 参考訳(メタデータ) (2022-09-07T11:54:55Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。