論文の概要: pFL-Bench: A Comprehensive Benchmark for Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2206.03655v1
- Date: Wed, 8 Jun 2022 02:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 14:12:57.238137
- Title: pFL-Bench: A Comprehensive Benchmark for Personalized Federated Learning
- Title(参考訳): pFL-Bench: 個人化フェデレーション学習のための総合ベンチマーク
- Authors: Daoyuan Chen, Dawei Gao, Weirui Kuang, Yaliang Li, Bolin Ding
- Abstract要約: そこで我々は,pFL ベンチマーク pFL-Bench を提案し,高速かつ再現性があり,標準化され,徹底的な pFL 評価を行う。
提案するベンチマークには、統一データパーティションと現実的な異種設定を備えた、さまざまなアプリケーションドメインの9つのデータセットが含まれている。
我々は、SOTA pFL法の利点と可能性を強調し、pFL-BenchがさらなるpFL研究と幅広い応用を可能にすることを期待する。
- 参考スコア(独自算出の注目度): 42.819532536636835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized Federated Learning (pFL) has gained increasing attention in
recent years due to its success in handling the statistical heterogeneity of FL
clients via utilizing and deploying distinct local models. However,
standardized evaluation and systematical analysis of diverse pFL methods remain
a challenge. Firstly, the highly varied datasets, FL simulation settings and
pFL implementations impede the fast and fair pFL comparison. Secondly, the
effectiveness and robustness of pFL methods are under-explored in various
practical scenarios, such as new clients generalization and resource-limited
clients participation. Finally, the current pFL literature diverges in the
adopted evaluation and ablation protocols. To tackle these challenges, we
propose the first comprehensive pFL benchmark, pFL-Bench, for facilitating
rapid, reproducible, standardized and thorough pFL evaluation. The proposed
benchmark contains 9 datasets in diverse application domains with unified data
partition and realistic heterogeneous settings; a modular and easy-to-extend
pFL codebase with more than 20 competitive pFL baseline implementations; and
systematic evaluations under containerized environments in terms of
generalization, fairness, system overhead, and convergence. We highlight the
benefits and potential of SOTA pFL methods and hope pFL-Bench enables further
pFL research and broad applications that would otherwise be difficult owing to
the absence of a dedicated benchmark. The code is released at
https://github.com/alibaba/FederatedScope/tree/master/benchmark/pFL-Bench.
- Abstract(参考訳): パーソナライズド・フェデレート・ラーニング(pFL)は、FLクライアントの統計的不均一性を扱うことに成功し、異なるローカルモデルを活用してデプロイすることで、近年注目を集めている。
しかし,pfl法の標準化評価と体系的分析は依然として課題である。
まず、非常に多様なデータセット、FLシミュレーション設定、pFL実装は、高速かつ公平なpFL比較を妨げる。
第2に、新しいクライアントの一般化やリソース制限されたクライアントの参加など、様々な実用的なシナリオにおいて、pflメソッドの有効性と堅牢性は未検討である。
最終的に、現在のpFL文献は、採用された評価プロトコルとアブレーションプロトコルに分岐する。
これらの課題に対処するため、我々はpFLベンチマークpFL-Benchを提案し、高速で再現性があり、標準化され、徹底的なpFL評価を行う。
提案するベンチマークには,統合データ分割と現実的な異種設定を備えた多様なアプリケーションドメインの9つのデータセット,20以上の競合pflベースライン実装を備えたモジュール化された拡張容易なpflコードベース,一般化,公平性,システムオーバーヘッド,収束性といった面でのコンテナ環境下での系統的評価が含まれている。
我々は、SOTA pFL法の利点と可能性を強調し、pFL-BenchがさらなるpFL研究と、それ以外は専用のベンチマークがないため難しい幅広い応用を可能にすることを期待する。
コードはhttps://github.com/alibaba/FederatedScope/tree/master/benchmark/pFL-Benchで公開されている。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - Sharp Bounds for Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
学習にはパラレルFL(PFL)とシーケンシャルFL(SFL)の2つのパラダイムがある。
PFLとは対照的に、収束理論 SFL のデータはまだ不足している。
強凸, 一般凸, 逐次非直観的目的関数の上限を導出する。
上界SFLと不均一PFLデータとの比較を行った。
論文 参考訳(メタデータ) (2024-05-02T09:58:49Z) - PFLlib: Personalized Federated Learning Algorithm Library [27.954706790789434]
PFLlibは総合的なpFLアルゴリズムライブラリであり、統合評価プラットフォームを備えている。
7つの古典的tFLアルゴリズムと27のpFLアルゴリズムを含む34の最先端FLアルゴリズムを実装した。
PFLlibはすでに850のスターと199のフォークをGitHubで獲得している。
論文 参考訳(メタデータ) (2023-12-08T12:03:08Z) - Convergence Analysis of Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
連立学習(FL)では、複数のクライアント間で共同トレーニングを行う方法が2つある:i)並列FL(PFL)、i)クライアントが並列にモデルを訓練するFL(SFL)、i)クライアントが逐次的にモデルを訓練するFL(SFL)である。
本稿では,不均一なデータに対するSFLの収束保証がまだ不十分であることを示す。
実験により,SFLはデバイス間設定において極めて不均一なデータ上でPFLより優れることを示した。
論文 参考訳(メタデータ) (2023-11-06T14:48:51Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - EasyFL: A Low-code Federated Learning Platform For Dummies [21.984721627569783]
低コードフェデレーテッドラーニング(FL)プラットフォームであるEasyFLを初めて提案し、さまざまなレベルの専門知識を持つユーザーが、少ないコーディングでFLアプリケーションを実験およびプロトタイプできるようにします。
ほんの数行のコードで、EasyFLは実験とデプロイを加速するために、すぐに使える多くの機能を提供します。
私たちの実装は、EasyFLがバニラFLアプリケーションを構築するのにわずか3行のコードを必要とすることを示しています。
論文 参考訳(メタデータ) (2021-05-17T04:15:55Z) - Towards Personalized Federated Learning [20.586573091790665]
PFL手法をデータベースおよびモデルベースアプローチに分割するユニークな分類法を提案する。
我々は、その重要なアイデアを強調し、新しいpflアーキテクチャ設計に向けた研究の将来の展望を期待する。
論文 参考訳(メタデータ) (2021-03-01T02:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。