論文の概要: FLStore: Efficient Federated Learning Storage for non-training workloads
- arxiv url: http://arxiv.org/abs/2503.00323v1
- Date: Sat, 01 Mar 2025 03:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:21:25.389837
- Title: FLStore: Efficient Federated Learning Storage for non-training workloads
- Title(参考訳): FLStore:非トレーニングワークロードのための効率的なフェデレーション学習ストレージ
- Authors: Ahmad Faraz Khan, Samuel Fountain, Ahmed M. Abdelmoniem, Ali R. Butt, Ali Anwar,
- Abstract要約: Federated Learning (FL)は、プライバシ保護機械学習(ML)のアプローチである
トレーニングの調整、モデルの更新の集約、丸ごとのメタデータの保存を行うアグリゲータサーバ。
既存のシステムの多くは、非トレーニングワークロードを処理し、データストレージにクラウドサービスを使用するためにアグリゲータに依存しています。
我々は、効率的なFL非トレーニングワークロードとストレージのためのサーバーレスフレームワークであるFLStoreを提案する。
- 参考スコア(独自算出の注目度): 4.7573122431136134
- License:
- Abstract: Federated Learning (FL) is an approach for privacy-preserving Machine Learning (ML), enabling model training across multiple clients without centralized data collection. With an aggregator server coordinating training, aggregating model updates, and storing metadata across rounds. In addition to training, a substantial part of FL systems are the non-training workloads such as scheduling, personalization, clustering, debugging, and incentivization. Most existing systems rely on the aggregator to handle non-training workloads and use cloud services for data storage. This results in high latency and increased costs as non-training workloads rely on large volumes of metadata, including weight parameters from client updates, hyperparameters, and aggregated updates across rounds, making the situation even worse. We propose FLStore, a serverless framework for efficient FL non-training workloads and storage. FLStore unifies the data and compute planes on a serverless cache, enabling locality-aware execution via tailored caching policies to reduce latency and costs. Per our evaluations, compared to cloud object store based aggregator server FLStore reduces per request average latency by 71% and costs by 92.45%, with peak improvements of 99.7% and 98.8%, respectively. Compared to an in-memory cloud cache based aggregator server, FLStore reduces average latency by 64.6% and costs by 98.83%, with peak improvements of 98.8% and 99.6%, respectively. FLStore integrates seamlessly with existing FL frameworks with minimal modifications, while also being fault-tolerant and highly scalable.
- Abstract(参考訳): Federated Learning(FL)は、プライバシ保護機械学習(ML)のアプローチである。
トレーニングの調整、モデルの更新の集約、丸ごとのメタデータの保存を行うアグリゲータサーバ。
トレーニングに加えて、FLシステムの大部分は、スケジューリング、パーソナライゼーション、クラスタリング、デバッグ、インセンティブ化といった非トレーニングワークロードである。
既存のシステムの多くは、非トレーニングワークロードを処理し、データストレージにクラウドサービスを使用するためにアグリゲータに依存しています。
これにより、非トレーニングワークロードは、クライアント更新からの重みパラメータ、ハイパーパラメータ、ラウンド全体の集約された更新など、大量のメタデータに依存するため、レイテンシが高くなり、コストが上昇する。
我々は、効率的なFL非トレーニングワークロードとストレージのためのサーバーレスフレームワークであるFLStoreを提案する。
FLStoreは、サーバーレスキャッシュ上のデータと計算プレーンを統一することで、カスタマイズされたキャッシュポリシによるローカリティ対応の実行を可能にし、レイテンシとコストを削減する。
評価の結果、クラウドオブジェクトストアベースのアグリゲータサーバと比較して、FLStoreは要求平均遅延を71%削減し、コストを92.45%削減し、それぞれ99.7%と98.8%のピーク改善を実現した。
メモリ内キャッシュベースのアグリゲータサーバと比較して、FLStoreは平均レイテンシを64.6%、コストを98.83%削減し、それぞれ98.8%と99.6%のピーク改善を行った。
FLStoreは、フォールトトレラントでスケーラブルであると同時に、最小限の変更で既存のFLフレームワークとシームレスに統合される。
関連論文リスト
- Sparse-ProxSkip: Accelerated Sparse-to-Sparse Training in Federated Learning [56.21666819468249]
FL(Federated Learning)では、クライアントリソースの制約と通信コストの両方が、大規模モデルのトレーニングに大きな問題を引き起こします。
最近の研究によると、局所的な訓練は加速によってコミュニケーションの複雑さを確実に改善する。
Sparse-ProxSkipを導入し、その課題に対処し、Sparse Training に展開する Straight-Through Estorimat の効率的な手法を実装した。
論文 参考訳(メタデータ) (2024-05-31T05:21:12Z) - LIFL: A Lightweight, Event-driven Serverless Platform for Federated Learning [3.290817968509798]
フェデレートラーニング(FL)は通常、個々のユーザデバイス/サーバのトレーニングモデルをローカルに配置した大規模分散システムを伴い、信頼された中央サーバ上でモデル更新を集約する。
FLの既存のシステムは、しばしばモデルアグリゲーションに常時オンのサーバーを使用するが、資源利用の面では非効率である。
本稿では,大規模で効率的なFLアグリゲーションを実現するための,きめ細かいリソース管理機能を備えた軽量で柔軟なサーバレスクラウドプラットフォームLIFLを提案する。
論文 参考訳(メタデータ) (2024-05-05T23:04:37Z) - FLASH-RL: Federated Learning Addressing System and Static Heterogeneity
using Reinforcement Learning [1.1650821883155187]
フェデレートラーニング(FL)は、有望な機械学習パラダイムとして登場した。
FLでは、各トレーニングラウンドでクライアントのサブセットを選択するのが一般的です。
FLASH-RLはDouble Deep QLearning(DDQL)を利用してFLのシステムおよび静的不均一性に対処するフレームワークである。
論文 参考訳(メタデータ) (2023-11-12T18:21:00Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedLesScan: Mitigating Stragglers in Serverless Federated Learning [0.7388859384645262]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルのトレーニングを可能にする機械学習パラダイムである。
我々は、サーバーレスFLに適したクラスタリングベースの新しい半非同期トレーニング戦略であるFedLesScanを提案する。
FedLesScanはトレーニング時間とコストをそれぞれ平均8%と20%削減し、クライアントの有効更新率は平均17.75%向上した。
論文 参考訳(メタデータ) (2022-11-10T18:17:41Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - A Family of Hybrid Federated and Centralized Learning Architectures in
Machine Learning [7.99536002595393]
機械学習タスクのためのハイブリッドフェデレーションと集中型学習(HFCL)を提案します。
flでは、十分なリソースを持つクライアントだけがflを採用し、残りのクライアントはpsにデータセットを送信し、モデルの代わりにモデルを計算する。
HFCLフレームワークは、クライアントの半分しかFLを実行せず、CLよりも50%$少ない通信オーバーヘッドを持つ場合、学習精度が最大20%$向上してFLを上回っています。
論文 参考訳(メタデータ) (2021-05-07T14:28:33Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。