論文の概要: FLoBC: A Decentralized Blockchain-Based Federated Learning Framework
- arxiv url: http://arxiv.org/abs/2112.11873v1
- Date: Wed, 22 Dec 2021 13:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 17:09:01.941338
- Title: FLoBC: A Decentralized Blockchain-Based Federated Learning Framework
- Title(参考訳): flobc: 分散型ブロックチェーンベースのフェデレーション学習フレームワーク
- Authors: Mohamed Ghanem, Fadi Dawoud, Habiba Gamal, Eslam Soliman, Hossam
Sharara, Tamer El-Batt
- Abstract要約: 本研究では,ブロックチェーン技術を用いた汎用分散型フェデレーション学習システムを構築するためのソリューションを実証する。
本稿では,訓練者と検証者という2つの分散型アクターからなるシステム設計について,信頼性と効率性を確保するための方法論について述べる。
最後に,FLoBCを実験用サンドボックスとして利用し,システム全体の性能に対するトレーナー対バリケータ比,報酬対ペナルティポリシ,モデル同期スキームの効果を比較比較・比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid expansion of data worldwide invites the need for more distributed
solutions in order to apply machine learning on a much wider scale. The
resultant distributed learning systems can have various degrees of
centralization. In this work, we demonstrate our solution FLoBC for building a
generic decentralized federated learning system using blockchain technology,
accommodating any machine learning model that is compatible with gradient
descent optimization. We present our system design comprising the two
decentralized actors: trainer and validator, alongside our methodology for
ensuring reliable and efficient operation of said system. Finally, we utilize
FLoBC as an experimental sandbox to compare and contrast the effects of
trainer-to-validator ratio, reward-penalty policy, and model synchronization
schemes on the overall system performance, ultimately showing by example that a
decentralized federated learning system is indeed a feasible alternative to
more centralized architectures.
- Abstract(参考訳): 世界中のデータの急速な拡大は、より広範囲に機械学習を適用するために、より多くの分散ソリューションの必要性を招いている。
その結果、分散学習システムは様々な集中度を持つことができる。
本研究では,ブロックチェーン技術を用いた汎用分散型フェデレーション学習システムを構築するためのFLoBCソリューションを実証し,勾配降下最適化と互換性のある機械学習モデルを収容する。
本稿では,訓練者と検証者という2つの分散型アクタからなるシステム設計について,そのシステムの信頼性と効率的な動作を保証するための方法論について述べる。
最後に、FLoBCを実験用サンドボックスとして利用し、訓練者対バリケータ比、報奨金政策、モデル同期スキームがシステム全体の性能に与える影響を比較比較、比較し、最終的に、分散化されたフェデレート学習システムは、より集中的なアーキテクチャの代替となることを示す。
関連論文リスト
- Fantastyc: Blockchain-based Federated Learning Made Secure and Practical [0.7083294473439816]
フェデレートラーニング(Federated Learning)は、クライアントがローカルデータを共有せずに、中央サーバのオーケストレーション下で機械学習モデルを協調的にトレーニングすることを可能にする分散フレームワークである。
このフレームワークの中心性は、ブロックチェーンベースのフェデレーション学習アプローチによって、文献で扱われる障害点を表している。
この課題に対処するために設計されたFantastycを提案する。
論文 参考訳(メタデータ) (2024-06-05T20:01:49Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Scheduling and Communication Schemes for Decentralized Federated
Learning [0.31410859223862103]
勾配降下(SGD)アルゴリズムを用いた分散連合学習(DFL)モデルが導入された。
DFLの3つのスケジューリングポリシーがクライアントと並列サーバ間の通信のために提案されている。
その結果,提案した計画警察は,収束速度と最終グローバルモデルの両方に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-27T17:35:28Z) - Enhancing Scalability and Reliability in Semi-Decentralized Federated
Learning With Blockchain: Trust Penalization and Asynchronous Functionality [0.0]
本論文は, 信頼金化機構を通じて参加ノードの信頼性を高めることに焦点を当てている。
提案システムは、データのプライバシーを損なうことなく、協調的な機械学習のための公正でセキュアで透明な環境を構築することを目的としている。
論文 参考訳(メタデータ) (2023-10-30T06:05:50Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Decentralized Training of Foundation Models in Heterogeneous
Environments [77.47261769795992]
GPT-3 や PaLM のようなトレーニング基盤モデルは、非常に高価である。
ヘテロジニアスネットワーク上での分散型システムにおけるモデル並列化を用いた大規模基盤モデルのトレーニングに関する最初の研究について述べる。
論文 参考訳(メタデータ) (2022-06-02T20:19:51Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - BAGUA: Scaling up Distributed Learning with System Relaxations [31.500494636704598]
BAGUAは分散データ並列トレーニングのための新しい通信フレームワークである。
新しいシステム設計によって、BAGUAは様々な最先端の分散学習アルゴリズムを実装し拡張する能力を持つ。
最大16台のマシンを持つ運用クラスタでは、BAGUAは、エンドツーエンドのトレーニング時間において、PyTorch-DDP、Horovod、BytePSを上回ります。
論文 参考訳(メタデータ) (2021-07-03T21:27:45Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。