論文の概要: Resource-Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2111.01108v1
- Date: Mon, 1 Nov 2021 17:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:27:19.340212
- Title: Resource-Efficient Federated Learning
- Title(参考訳): 資源効率のよい連合学習
- Authors: Ahmed M. Abdelmoniem and Atal Narayan Sahu and Marco Canini and Suhaib
A. Fahmy
- Abstract要約: フェデレートラーニング(FL)は、ローカルデータを用いた学習者による分散トレーニングを可能にする。
データ配布、デバイス機能、大規模デプロイメントとしての参加者の可用性に関する多くの課題を提示している。
- 参考スコア(独自算出の注目度): 3.654036881216688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables distributed training by learners using local
data, thereby enhancing privacy and reducing communication. However, it
presents numerous challenges relating to the heterogeneity of the data
distribution, device capabilities, and participant availability as deployments
scale, which can impact both model convergence and bias. Existing FL schemes
use random participant selection to improve fairness; however, this can result
in inefficient use of resources and lower quality training. In this work, we
systematically address the question of resource efficiency in FL, showing the
benefits of intelligent participant selection, and incorporation of updates
from straggling participants. We demonstrate how these factors enable resource
efficiency while also improving trained model quality.
- Abstract(参考訳): フェデレーション学習(fl)は,ローカルデータを用いた学習者による分散トレーニングを可能にし,プライバシの強化とコミュニケーションの削減を実現する。
しかし、デプロイメントスケールとしてデータ分散の不均一性、デバイス機能、アクセシビリティに関する多くの課題が提示され、モデル収束とバイアスの両方に影響を与える可能性がある。
既存のflスキームは、公平性を改善するためにランダムな参加者選択を用いるが、これはリソースの効率の悪い使用とより低い品質のトレーニングをもたらす可能性がある。
本研究では,FLにおける資源効率の課題を系統的に解決し,知的受像者選択のメリットと,混在する参加者からの更新を取り入れた。
我々は、これらの要因がいかにリソース効率を向上させるかを示しながら、トレーニングされたモデル品質も改善する。
関連論文リスト
- Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - Seamless Integration: Sampling Strategies in Federated Learning Systems [0.0]
フェデレートラーニング(Federated Learning, FL)は、機械学習の分野におけるパラダイムシフトである。
新しいクライアントのシームレスな統合はFLシステムの維持と性能向上に不可欠である。
本稿では,システムのスケーラビリティと安定性を確保するための効果的なクライアント選択戦略とソリューションについて概説する。
論文 参考訳(メタデータ) (2024-08-18T17:16:49Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Evaluating and Incentivizing Diverse Data Contributions in Collaborative
Learning [89.21177894013225]
フェデレートされた学習モデルがうまく機能するためには、多様で代表的なデータセットを持つことが不可欠である。
データの多様性を定量化するために用いられる統計的基準と、使用するフェデレート学習アルゴリズムの選択が、結果の平衡に有意な影響を及ぼすことを示す。
我々はこれを活用して、データ収集者がグローバルな人口を代表するデータに貢献することを奨励する、シンプルな最適なフェデレーション学習機構を設計する。
論文 参考訳(メタデータ) (2023-06-08T23:38:25Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。