論文の概要: FTTE: Federated Learning on Resource-Constrained Devices
- arxiv url: http://arxiv.org/abs/2510.03165v1
- Date: Fri, 03 Oct 2025 16:36:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.494595
- Title: FTTE: Federated Learning on Resource-Constrained Devices
- Title(参考訳): FTTE:資源制約デバイスにおけるフェデレーション学習
- Authors: Irene Tenison, Anna Murphy, Charles Beauville, Lalana Kagal,
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを保持しながら、分散デバイス間で協調的なモデルトレーニングを可能にする。
従来の同期および非同期FLアプローチは、異種大規模ネットワークにおいてストラグラーによる遅延と緩やかな収束に悩まされている。
本稿では,スパースパラメータ更新と安定度重み付けを用いた新しい半非同期FLフレームワークであるFTTE(Federated Tiny Training Engine)を提案する。
- 参考スコア(独自算出の注目度): 1.3474501014756581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative model training across distributed devices while preserving data privacy, but deployment on resource-constrained edge nodes remains challenging due to limited memory, energy, and communication bandwidth. Traditional synchronous and asynchronous FL approaches further suffer from straggler induced delays and slow convergence in heterogeneous, large scale networks. We present FTTE (Federated Tiny Training Engine),a novel semi-asynchronous FL framework that uniquely employs sparse parameter updates and a staleness-weighted aggregation based on both age and variance of client updates. Extensive experiments across diverse models and data distributions - including up to 500 clients and 90% stragglers - demonstrate that FTTE not only achieves 81% faster convergence, 80% lower on-device memory usage, and 69% communication payload reduction than synchronous FL (eg.FedAVG), but also consistently reaches comparable or higher target accuracy than semi-asynchronous (eg.FedBuff) in challenging regimes. These results establish FTTE as the first practical and scalable solution for real-world FL deployments on heterogeneous and predominantly resource-constrained edge devices.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保護しながら、分散デバイス間で協調的なモデルトレーニングを可能にするが、メモリ、エネルギ、通信帯域幅の制限により、リソース制約のあるエッジノードへのデプロイメントは依然として困難である。
従来の同期と非同期のFLアプローチは、不均一で大規模なネットワークにおいてストラグラーによる遅延と緩やかな収束にさらに悩まされている。
本稿では,クライアント更新の年齢と分散度に基づいて,スパースパラメータ更新と安定化重み付けアグリゲーションを一意に活用した,新しい半非同期FLフレームワークFTTEを提案する。
最大500のクライアントと90%のストラグラーを含む、多様なモデルとデータディストリビューションにわたる大規模な実験は、FTTEが81%の高速化、デバイス上でのメモリ使用率の80%低下、通信ペイロードの削減が同期FL(例えばFedAVG)よりも69%減少し、挑戦的な状況下ではセミ非同期(例えばFedBuff)よりも一貫して高い目標精度に到達していることを示している。
これらの結果から、FTTEは、異質でリソース制約の大きいエッジデバイス上での現実のFL展開のための、最初の実用的でスケーラブルなソリューションとして確立された。
関連論文リスト
- Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - FRAIN to Train: A Fast-and-Reliable Solution for Decentralized Federated Learning [1.1510009152620668]
非同期学習(FL)は、データの局所性を維持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
我々は、2つの重要なアイデアを取り入れることでこれらの制限を緩和する新しいFL手法であるFRAIN(Fast-and-Reliable AI Network)を導入する。
CNNイメージ分類モデルとTransformerベースの言語モデルによる実験では、FRAINはFedAvg、FedAsync、BRAINよりも安定的で堅牢な収束を実現している。
論文 参考訳(メタデータ) (2025-05-07T08:20:23Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - FedAST: Federated Asynchronous Simultaneous Training [27.492821176616815]
フェデレートラーニング(FL)は、デバイスやクライアントがプライベートデータを共有せずに機械学習(ML)モデルを協調的にトレーニングすることを可能にする。
FLにおける既存の作業の多くは、1つのタスクのモデルを効率的に学習することに集中しています。
本稿では,共通データセットを用いた複数のFLモデルの同時学習を提案する。
論文 参考訳(メタデータ) (2024-06-01T05:14:20Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - FAVANO: Federated AVeraging with Asynchronous NOdes [14.412305295989444]
本稿では,資源制約環境下でのディープニューラルネットワーク(DNN)のトレーニングのための,新しい集中型非同期フェデレートラーニング(FL)フレームワークであるFAVANOを提案する。
論文 参考訳(メタデータ) (2023-05-25T14:30:17Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - SWIFT: Rapid Decentralized Federated Learning via Wait-Free Model
Communication [11.763368822546468]
SWIFTはその待ち時間構造のため,実行時間に対してより高速に収束することを示す。
SWIFTは、画像分類、ID、非IIDデータ設定の損失レベルを生成し、既存のSOTAアルゴリズムよりも50%高速である。
論文 参考訳(メタデータ) (2022-10-25T14:01:21Z) - Time-triggered Federated Learning over Wireless Networks [48.389824560183776]
無線ネットワーク上での時系列FLアルゴリズム(TT-Fed)を提案する。
提案したTT-Fedアルゴリズムは, それぞれ最大12.5%, 5%の収束試験精度を向上する。
論文 参考訳(メタデータ) (2022-04-26T16:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。