論文の概要: Blockchain-enabled Server-less Federated Learning
- arxiv url: http://arxiv.org/abs/2112.07938v1
- Date: Wed, 15 Dec 2021 07:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 23:06:26.836234
- Title: Blockchain-enabled Server-less Federated Learning
- Title(参考訳): ブロックチェーン対応サーバレスフェデレーション学習
- Authors: Francesc Wilhelmi, Lorenza Giupponi, Paolo Dini
- Abstract要約: 我々は、(BC)技術によって強化された非同期サーバーレスフェデレートラーニングソリューションに焦点を当てる。
主に採用されているFLアプローチとは対照的に、クライアントがローカル更新を送信する際にモデルアグリゲーションを行う非同期手法を提唱する。
- 参考スコア(独自算出の注目度): 5.065631761462706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by the heterogeneous nature of devices participating in large-scale
Federated Learning (FL) optimization, we focus on an asynchronous server-less
FL solution empowered by Blockchain (BC) technology. In contrast to mostly
adopted FL approaches, which assume synchronous operation, we advocate an
asynchronous method whereby model aggregation is done as clients submit their
local updates. The asynchronous setting fits well with the federated
optimization idea in practical large-scale settings with heterogeneous clients.
Thus, it potentially leads to higher efficiency in terms of communication
overhead and idle periods. To evaluate the learning completion delay of
BC-enabled FL, we provide an analytical model based on batch service queue
theory. Furthermore, we provide simulation results to assess the performance of
both synchronous and asynchronous mechanisms. Important aspects involved in the
BC-enabled FL optimization, such as the network size, link capacity, or user
requirements, are put together and analyzed. As our results show, the
synchronous setting leads to higher prediction accuracy than the asynchronous
case. Nevertheless, asynchronous federated optimization provides much lower
latency in many cases, thus becoming an appealing FL solution when dealing with
large data sets, tough timing constraints (e.g., near-real-time applications),
or highly varying training data.
- Abstract(参考訳): 大規模なフェデレートラーニング(FL)最適化に参加するデバイスの異種性により、Blockchain(BC)技術によって強化された非同期サーバレスFLソリューションに焦点を当てる。
同期処理を前提としたFLアプローチとは対照的に,クライアントがローカル更新を送信する際にモデル集約を行う非同期手法を提案する。
非同期設定は、異種クライアントによる実用的な大規模設定において、フェデレーション最適化のアイデアとよく適合する。
したがって、通信オーバーヘッドやアイドル期間の点で効率が向上する可能性がある。
BC対応FLの学習完了遅延を評価するため,バッチサービスキュー理論に基づく解析モデルを提案する。
さらに,同期機構と非同期機構の両方の性能を評価するシミュレーション結果を提供する。
BC対応FL最適化に関わる重要な側面として、ネットワークサイズ、リンク容量、ユーザ要求などが挙げられ、分析される。
結果が示すように、同期設定は非同期ケースよりも高い予測精度をもたらす。
それにもかかわらず、非同期フェデレーション最適化は多くの場合、レイテンシをはるかに低くするので、大きなデータセット、厳しいタイミング制約(例えば、準リアルタイムアプリケーション)、あるいは非常に多様なトレーニングデータを扱う際に、魅力的なFLソリューションとなる。
関連論文リスト
- Optimizing Asynchronous Federated Learning: A Delicate Trade-Off Between Model-Parameter Staleness and Update Frequency [0.9999629695552195]
我々は、非同期FLアルゴリズムにおける設計選択の影響をよりよく理解するために勾配モデリングを用いる。
特に非同期FLを最適化するための基本的なトレードオフを特徴付ける。
これらの最適化は精度を10%から30%向上させる。
論文 参考訳(メタデータ) (2025-02-12T08:38:13Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - FedAST: Federated Asynchronous Simultaneous Training [27.492821176616815]
フェデレートラーニング(FL)は、デバイスやクライアントがプライベートデータを共有せずに機械学習(ML)モデルを協調的にトレーニングすることを可能にする。
FLにおける既存の作業の多くは、1つのタスクのモデルを効率的に学習することに集中しています。
本稿では,共通データセットを用いた複数のFLモデルの同時学習を提案する。
論文 参考訳(メタデータ) (2024-06-01T05:14:20Z) - Momentum Approximation in Asynchronous Private Federated Learning [24.325330433282808]
本稿では,すべての履歴モデル更新の最適重み付き平均を求めることにより,バイアスを最小限に抑えるモーメント近似を提案する。
我々は、ベンチマークFLデータセットにおいて、モーメント近似が収束のスピードアップで1.15のテクスム−-4タイムを達成できることを実証的に実証した。
論文 参考訳(メタデータ) (2024-02-14T15:35:53Z) - AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Efficient and Light-Weight Federated Learning via Asynchronous
Distributed Dropout [22.584080337157168]
非同期学習プロトコルは最近、特にフェデレートラーニング(FL)設定において注目を集めている。
分散環境でデバイスの不均一性を処理するためにドロップアウト正規化を利用する新しい非同期FLフレームワークである textttAsyncDrop を提案する。
全体として、textttAsyncDropは、最先端の非同期メソッドと比較してパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-10-28T13:00:29Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。