論文の概要: Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation
- arxiv url: http://arxiv.org/abs/2101.06905v1
- Date: Mon, 18 Jan 2021 07:19:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 16:37:06.815390
- Title: Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation
- Title(参考訳): ブロックチェーンによる分散フェデレーション学習(blade-fl)のパフォーマンス分析とリソース割り当て
- Authors: Jun Li, Yumeng Shao, Kang Wei, Ming Ding, Chuan Ma, Long Shi, Zhu Han,
and H. Vincent Poor
- Abstract要約: ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
- 参考スコア(独自算出の注目度): 119.19061102064497
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning (FL), as a distributed machine learning paradigm, promotes
personal privacy by clients' processing raw data locally. However, relying on a
centralized server for model aggregation, standard FL is vulnerable to server
malfunctions, untrustworthy server, and external attacks. To address this
issue, we propose a decentralized FL framework by integrating blockchain into
FL, namely, blockchain assisted decentralized federated learning (BLADE-FL). In
a round of the proposed BLADE-FL, each client broadcasts its trained model to
other clients, competes to generate a block based on the received models, and
then aggregates the models from the generated block before its local training
of the next round. We evaluate the learning performance of BLADE-FL, and
develop an upper bound on the global loss function. Then we verify that this
bound is convex with respect to the number of overall rounds K, and optimize
the computing resource allocation for minimizing the upper bound. We also note
that there is a critical problem of training deficiency, caused by lazy clients
who plagiarize others' trained models and add artificial noises to disguise
their cheating behaviors. Focusing on this problem, we explore the impact of
lazy clients on the learning performance of BLADE-FL, and characterize the
relationship among the optimal K, the learning parameters, and the proportion
of lazy clients. Based on the MNIST and Fashion-MNIST datasets, we show that
the experimental results are consistent with the analytical ones. To be
specific, the gap between the developed upper bound and experimental results is
lower than 5%, and the optimized K based on the upper bound can effectively
minimize the loss function.
- Abstract(参考訳): 分散機械学習パラダイムであるフェデレートラーニング(FL)は、クライアントが生データをローカルに処理することで、個人のプライバシーを促進する。
しかし、モデルアグリゲーションのための集中型サーバに頼ると、標準FLはサーバーの故障、不信なサーバ、外部攻撃に弱い。
この問題に対処するために、ブロックチェーンをFL、すなわちブロックチェーン支援型分散連邦学習(BLADE-FL)に統合する分散FLフレームワークを提案する。
提案したBLADE-FLのラウンドでは、各クライアントがトレーニングされたモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約する。
本研究では,blade-flの学習性能を評価し,大域的損失関数の上限を開発する。
次に、この境界が全ラウンド数Kに対して凸であることを確認し、上限を最小化するための計算資源割り当てを最適化する。
また,他人の訓練したモデルを盗聴し,不正行為を偽装する人工ノイズを付加する遅延クライアントが原因で,トレーニング不足が重大な問題となっていることも留意する。
そこで本研究では,遅延クライアントがblade-flの学習性能に与える影響を考察し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
MNIST と Fashion-MNIST のデータセットから,実験結果は解析結果と一致していることを示す。
具体的には、開発した上限値と実験値との差が5%以下であり、上限値に基づく最適化kは損失関数を効果的に最小化することができる。
関連論文リスト
- BRFL: A Blockchain-based Byzantine-Robust Federated Learning Model [8.19957400564017]
分散ノードにデータを格納し、モデルパラメータのみを共有するフェデレーション学習は、この問題に対処するために大きな注目を集めている。
悪質なローカルモデルが集約中のグローバルモデルのパフォーマンスを損なうという、ビザンティン攻撃問題(英語版)によるフェデレートラーニング(英語版)において、課題が生じる。
本稿では、フェデレートラーニングとブロックチェーン技術を組み合わせたByzantine-Robust Federated Learning(BRLF)モデルの統合を提案する。
論文 参考訳(メタデータ) (2023-10-20T10:21:50Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning [13.086807746204597]
フェデレートラーニング(FL)は、中央アグリゲータのオーケストレーションの下で、複数の分散クライアントが協力してモデルをトレーニングできる機械学習パラダイムである。
従来のFLは、クライアントのコホートを正直に形成する中心集合体の信頼前提に依存している。
我々は、ゼロ知識証明を利用して、トレーニングモデル集約プロセス中に悪意あるアグリゲータの問題に取り組むzkFLを紹介した。
論文 参考訳(メタデータ) (2023-10-04T03:24:33Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Incentive Mechanism Design for Joint Resource Allocation in
Blockchain-based Federated Learning [23.64441447666488]
本稿では,各クライアントに対して,トレーニングとマイニングに適切な報酬を割り当てるインセンティブ機構を提案する。
そこで我々は,Stackelbergのゲームモデルを2つの最適化問題に変換し,モデルオーナとクライアントの両方に対して最適な戦略を導出する。
論文 参考訳(メタデータ) (2022-02-18T02:19:26Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。