論文の概要: Incentive Mechanism Design for Joint Resource Allocation in
Blockchain-based Federated Learning
- arxiv url: http://arxiv.org/abs/2202.10938v1
- Date: Fri, 18 Feb 2022 02:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:53:42.697491
- Title: Incentive Mechanism Design for Joint Resource Allocation in
Blockchain-based Federated Learning
- Title(参考訳): ブロックチェーン型フェデレート学習における共同資源配分のためのインセンティブ機構設計
- Authors: Zhilin Wang, Qin Hu, Ruinian Li, Minghui Xu, and Zehui Xiong
- Abstract要約: 本稿では,各クライアントに対して,トレーニングとマイニングに適切な報酬を割り当てるインセンティブ機構を提案する。
そこで我々は,Stackelbergのゲームモデルを2つの最適化問題に変換し,モデルオーナとクライアントの両方に対して最適な戦略を導出する。
- 参考スコア(独自算出の注目度): 23.64441447666488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blockchain-based federated learning (BCFL) has recently gained tremendous
attention because of its advantages such as decentralization and privacy
protection of raw data. However, there has been few research focusing on the
allocation of resources for clients in BCFL. In the BCFL framework where the FL
clients and the blockchain miners are the same devices, clients broadcast the
trained model updates to the blockchain network and then perform mining to
generate new blocks. Since each client has a limited amount of computing
resources, the problem of allocating computing resources into training and
mining needs to be carefully addressed. In this paper, we design an incentive
mechanism to assign each client appropriate rewards for training and mining,
and then the client will determine the amount of computing power to allocate
for each subtask based on these rewards using the two-stage Stackelberg game.
After analyzing the utilities of the model owner (MO) (i.e., the BCFL task
publisher) and clients, we transform the game model into two optimization
problems, which are sequentially solved to derive the optimal strategies for
both the MO and clients. Further, considering the fact that local training
related information of each client may not be known by others, we extend the
game model with analytical solutions to the incomplete information scenario.
Extensive experimental results demonstrate the validity of our proposed
schemes.
- Abstract(参考訳): ブロックチェーンベースのフェデレーション学習(bcfl)は最近、分散化や生データのプライバシ保護といったメリットから、大きな注目を集めている。
しかし、BCFLにおけるクライアント向けのリソースの割り当てに焦点を当てた研究はほとんど行われていない。
flクライアントとブロックチェーンマイナが同じデバイスであるbcflフレームワークでは、トレーニングされたモデルアップデートをブロックチェーンネットワークにブロードキャストし、マイニングを実行して新たなブロックを生成する。
各クライアントには限られた量のコンピューティングリソースがあるため、コンピュータリソースをトレーニングとマイニングに割り当てる問題は慎重に対処する必要がある。
本稿では,各クライアントにトレーニングとマイニングの適切な報酬を割り当てるインセンティブ機構を設計し,この2段階のStackelbergゲームを用いて,各サブタスクに割り当てるコンピューティングパワーの量を決定する。
モデルオーナ(mo)とクライアントのユーティリティ(bcflタスクパブリッシャ)を分析した後、ゲームモデルを2つの最適化問題に変換し、moとクライアントの両方の最適な戦略を導出するために順次解決する。
さらに,各クライアントのローカルトレーニング関連情報が他者によって知られていないことを考慮し,不完全な情報シナリオに対する解析解を用いてゲームモデルを拡張する。
広範な実験結果から,提案手法の有効性が示された。
関連論文リスト
- Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Multi-dimensional Data Quick Query for Blockchain-based Federated Learning [6.499393722730449]
本稿では,MerkleRB-Tree と呼ばれる各ブロック内のクエリ効率を改善するための新しいデータ構造を提案する。
詳細は,多次元連続値属性と離散値属性の問合せプロセスにおいて,最小境界矩形(MBR)とブルームフィルタを利用する。
論文 参考訳(メタデータ) (2023-09-27T01:35:11Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。