論文の概要: Oort: Efficient Federated Learning via Guided Participant Selection
- arxiv url: http://arxiv.org/abs/2010.06081v3
- Date: Fri, 28 May 2021 00:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 08:12:49.655180
- Title: Oort: Efficient Federated Learning via Guided Participant Selection
- Title(参考訳): oort: ガイド付き参加者選択による効率的な連合学習
- Authors: Fan Lai, Xiangfeng Zhu, Harsha V. Madhyastha, Mosharaf Chowdhury
- Abstract要約: フェデレートラーニング(FL)は、エッジデータを用いたモデルトレーニングとテストを可能にする。
既存の取り組みでは、FL参加者をランダムに選び、モデルやシステムの効率が悪くなります。
Oortは1.2x-14.1x、最終モデルの精度を1.3%-9.8%改善した。
- 参考スコア(独自算出の注目度): 5.01181273401802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is an emerging direction in distributed machine
learning (ML) that enables in-situ model training and testing on edge data.
Despite having the same end goals as traditional ML, FL executions differ
significantly in scale, spanning thousands to millions of participating
devices. As a result, data characteristics and device capabilities vary widely
across clients. Yet, existing efforts randomly select FL participants, which
leads to poor model and system efficiency.
In this paper, we propose Oort to improve the performance of federated
training and testing with guided participant selection. With an aim to improve
time-to-accuracy performance in model training, Oort prioritizes the use of
those clients who have both data that offers the greatest utility in improving
model accuracy and the capability to run training quickly. To enable FL
developers to interpret their results in model testing, Oort enforces their
requirements on the distribution of participant data while improving the
duration of federated testing by cherry-picking clients. Our evaluation shows
that, compared to existing participant selection mechanisms, Oort improves
time-to-accuracy performance by 1.2x-14.1x and final model accuracy by
1.3%-9.8%, while efficiently enforcing developer-specified model testing
criteria at the scale of millions of clients.
- Abstract(参考訳): Federated Learning(FL)は、エッジデータを用いたモデルトレーニングとテストを可能にする、分散機械学習(ML)の新たな方向性である。
従来のmlと同じ目標を持つにも関わらず、flの実行は、数千から数百万のデバイスにまたがる規模で大きく異なる。
その結果、データ特性とデバイスの能力はクライアントによって大きく異なる。
しかし、既存の取り組みはランダムにfl参加者を選び、モデルやシステムの効率が悪くなる。
本稿では,参加者選択によるフェデレーショントレーニングとテストの性能向上を目的としたOortを提案する。
モデルトレーニングにおける時間と精度のパフォーマンス向上を目的として、Oort氏は、モデル精度と迅速なトレーニングの実行能力を改善する上で最も有用なデータの両方を提供するクライアントの使用を優先している。
FL開発者がモデルテストの結果を解釈できるように、Oortはチェリーピッキングクライアントによるフェデレーションテストの期間を改善しながら、参加者データの配布に関する要件を強制する。
評価の結果,Oortは既存の参加者選択機構に比べて1.2x-14.1x,最終モデルの精度が1.3%-9.8%向上し,開発者の特定モデルテスト基準を数百万のクライアントで効率的に適用できることがわかった。
関連論文リスト
- Ranking-based Client Selection with Imitation Learning for Efficient Federated Learning [20.412469498888292]
フェデレートラーニング(FL)は、複数のデバイスが共同で共有モデルをトレーニングすることを可能にする。
各トレーニングラウンドにおける参加デバイスの選択は、モデル性能とトレーニング効率の両方に重大な影響を及ぼす。
我々は、エンドツーエンドのランキングベースのアプローチであるFedRankという新しいデバイス選択ソリューションを導入する。
論文 参考訳(メタデータ) (2024-05-07T08:44:29Z) - GPFL: A Gradient Projection-Based Client Selection Framework for Efficient Federated Learning [6.717563725609496]
フェデレートラーニングクライアントの選択は、参加者のクライアントを決定するために重要です。
本稿では,局所的およびグローバルな降下方向を比較することで,クライアントの値を測定するGPFLを提案する。
GPFLは、フェデレート学習における事前選択とパラメータ再利用により、より短い計算時間を示す。
論文 参考訳(メタデータ) (2024-03-26T16:14:43Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Test-Time Robust Personalization for Federated Learning [5.553167334488855]
Federated Learning(FL)は、多くのクライアントが分散トレーニングデータで共有グローバルモデルを共同で学習する機械学習パラダイムである。
パーソナライズされたFLは、グローバルモデルを異なるクライアントに適応させ、一貫したローカルトレーニングとテスト分布に関する有望な結果を達成する。
テスト時間分布シフトに頑健なFLモデルをパーソナライズするフェデレーションテスト時ヘッドアンサンブルとチューニング(FedTHE+)を提案する。
論文 参考訳(メタデータ) (2022-05-22T20:08:14Z) - Sample Selection with Deadline Control for Efficient Federated Learning
on Heterogeneous Clients [8.350621280672891]
Federated Learning (FL)は、個々のデータを公開せずに、分散クライアント上で機械学習モデルをトレーニングする。
クライアントのトレーニングサンプルを積極的に選択する体系的なFLフレームワークであるFedBalancerを提案する。
モデル精度を1.03.3%向上させながら,FedBalancerは1.224.62倍の精度向上を実現した。
論文 参考訳(メタデータ) (2022-01-05T13:35:35Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Stochastic Client Selection for Federated Learning with Volatile Clients [41.591655430723186]
Federated Learning(FL)は、プライバシ保護機械学習パラダイムである。
同期FLトレーニングの各ラウンドでは、参加できるクライアントはごくわずかである。
本稿では,この問題を解決するためのクライアント選択方式であるE3CSを提案する。
論文 参考訳(メタデータ) (2020-11-17T16:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。