論文の概要: Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2004.04104v2
- Date: Fri, 1 May 2020 05:51:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:27:31.299623
- Title: Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach
- Title(参考訳): ブロックチェーンを活用したフェデレーションラーニングのためのリソース管理:深層強化学習アプローチ
- Authors: Nguyen Quang Hieu, Tran The Anh, Nguyen Cong Luong, Dusit Niyato, Dong
In Kim, Erik Elmroth
- Abstract要約: Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
- 参考スコア(独自算出の注目度): 54.29213445674221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blockchain-enabled Federated Learning (BFL) enables mobile devices to
collaboratively train neural network models required by a Machine Learning
Model Owner (MLMO) while keeping data on the mobile devices. Then, the model
updates are stored in the blockchain in a decentralized and reliable manner.
However, the issue of BFL is that the mobile devices have energy and CPU
constraints that may reduce the system lifetime and training efficiency. The
other issue is that the training latency may increase due to the blockchain
mining process. To address these issues, the MLMO needs to (i) decide how much
data and energy that the mobile devices use for the training and (ii) determine
the block generation rate to minimize the system latency, energy consumption,
and incentive cost while achieving the target accuracy for the model. Under the
uncertainty of the BFL environment, it is challenging for the MLMO to determine
the optimal decisions. We propose to use the Deep Reinforcement Learning (DRL)
to derive the optimal decisions for the MLMO.
- Abstract(参考訳): ブロックチェーン対応のフェデレートラーニング(BFL)は、モバイルデバイスにデータを保持しながら、機械学習モデルオーナ(MLMO)が必要とするニューラルネットワークモデルを協調的にトレーニングすることを可能にする。
その後、モデル更新は分散型で信頼性の高い方法でブロックチェーンに格納される。
しかし、bflの問題は、モバイルデバイスには、システムの寿命とトレーニング効率を低下させるエネルギとcpuの制約があることだ。
もうひとつの問題は、ブロックチェーンマイニングプロセスによってトレーニング遅延が増加する可能性があることだ。
これらの問題に対処するために mlmoは
(i)モバイルデバイスがトレーニングにどれだけのデータとエネルギーを使用するかを決定し、
2)モデルの目標精度を達成しつつ,システム遅延,エネルギー消費,インセンティブコストを最小限に抑えるため,ブロック生成率を決定する。
BFL環境の不確実性の下では、MLMOが最適な決定を決定することは困難である。
本稿では,MLMOの最適決定を導出するために,Deep Reinforcement Learning (DRL) を提案する。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - MobiLlama: Towards Accurate and Lightweight Fully Transparent GPT [87.4910758026772]
近年のLarge Language Models (LLM) 開発において,"Bigger the Better" が主流となっている。
本稿では、リソース制約のあるデバイスに対して、正確かつ効率的なSLM(Small Language Models)を設計する上での課題に対処し、"less is more"パラダイムについて考察する。
論文 参考訳(メタデータ) (2024-02-26T18:59:03Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - Post Quantum Secure Blockchain-based Federated Learning for Mobile Edge
Computing [21.26290266786857]
当社では、フェデレートラーニング(FL)とブロックチェーンの特長をモバイルエッジコンピューティングアーキテクチャに採用しています。
FLは、中央に配信するためにモデル更新を必要とするため、接続が制限されたモバイルデバイスにとって有利である。
本稿では,BFL-MECと呼ばれる完全に非同期化されたフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-26T08:08:23Z) - How Much Does It Cost to Train a Machine Learning Model over Distributed
Data Sources? [4.222078489059043]
フェデレーション学習は、デバイスが生データを共有せずに機械学習モデルをトレーニングすることを可能にする。
ゴシップフェデレーションラーニング(GFL)やブロックチェーン対応フェデレーションラーニング(BFL)のようなサーバーレスFLアプローチは、これらの問題を緩和するために提案されている。
GFLはトレーニング時間の18%、エネルギーの68%、データをCFLソリューションで共有する51%を節約できるが、CFLの精度に達することはできない。
BFLは、余分なエネルギー使用とデータ共有を犠牲にして、より高いレベルのセキュリティで分散学習を実装するための実行可能なソリューションである。
論文 参考訳(メタデータ) (2022-09-15T08:13:40Z) - Latency Optimization for Blockchain-Empowered Federated Learning in
Multi-Server Edge Computing [24.505675843652448]
本稿では,マルチサーバエッジコンピューティングにおけるフェデレーション学習(BFL)のための新しいレイテンシ最適化問題について検討する。
このシステムモデルでは、分散モバイルデバイス(MD)がエッジサーバ(ES)と通信し、機械学習(ML)モデルのトレーニングとブロックマイニングの両方を同時に処理する。
論文 参考訳(メタデータ) (2022-03-18T00:38:29Z) - Incentive Mechanism Design for Joint Resource Allocation in
Blockchain-based Federated Learning [23.64441447666488]
本稿では,各クライアントに対して,トレーニングとマイニングに適切な報酬を割り当てるインセンティブ機構を提案する。
そこで我々は,Stackelbergのゲームモデルを2つの最適化問題に変換し,モデルオーナとクライアントの両方に対して最適な戦略を導出する。
論文 参考訳(メタデータ) (2022-02-18T02:19:26Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。