論文の概要: Robust Blockchained Federated Learning with Model Validation and
Proof-of-Stake Inspired Consensus
- arxiv url: http://arxiv.org/abs/2101.03300v1
- Date: Sat, 9 Jan 2021 06:30:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:24:45.789554
- Title: Robust Blockchained Federated Learning with Model Validation and
Proof-of-Stake Inspired Consensus
- Title(参考訳): モデル検証とプルーフオブステイクインスパイアコンセンサスを用いたロバストなブロックチェーン型フェデレーション学習
- Authors: Hang Chen, Syed Ali Asif, Jihong Park, Chien-Chung Shen, Mehdi Bennis
- Abstract要約: Federated Learning(FL)は、生のデータを公開することなく、モデルパラメータのみを交換する有望な分散学習ソリューションです。
ブロックチェーンアーキテクチャにおける2つのメカニズムを活用することで、ブロックチェーンベースの分散型FLフレームワークであるVBFLを提案する。
悪意のあるデバイスの15%で、VBFLは87%の精度を達成し、Vanilla FLよりも7.4倍高い。
- 参考スコア(独自算出の注目度): 43.12040317316018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a promising distributed learning solution that
only exchanges model parameters without revealing raw data. However, the
centralized architecture of FL is vulnerable to the single point of failure. In
addition, FL does not examine the legitimacy of local models, so even a small
fraction of malicious devices can disrupt global training. To resolve these
robustness issues of FL, in this paper, we propose a blockchain-based
decentralized FL framework, termed VBFL, by exploiting two mechanisms in a
blockchained architecture. First, we introduced a novel decentralized
validation mechanism such that the legitimacy of local model updates is
examined by individual validators. Second, we designed a dedicated
proof-of-stake consensus mechanism where stake is more frequently rewarded to
honest devices, which protects the legitimate local model updates by increasing
their chances of dictating the blocks appended to the blockchain. Together,
these solutions promote more federation within legitimate devices, enabling
robust FL. Our emulation results of the MNIST classification corroborate that
with 15% of malicious devices, VBFL achieves 87% accuracy, which is 7.4x higher
than Vanilla FL.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は,生データを明かすことなくモデルパラメータのみを交換する,有望な分散学習ソリューションである。
しかしながら、flの集中型アーキテクチャは単一障害点に対して脆弱である。
加えて、FLはローカルモデルの正当性を検証していないため、少数の悪意のあるデバイスでさえ、世界的なトレーニングを妨害する可能性がある。
本稿では、これらのFLの堅牢性問題を解決するために、ブロックチェーンアーキテクチャにおける2つのメカニズムを活用することにより、VBFLと呼ばれるブロックチェーンベースの分散FLフレームワークを提案する。
まず,ローカルモデル更新の正当性を個別の検証者によって検証できるように,分散検証機構を新たに導入した。
第2に,ブロックチェーンに付加されるブロックを判断する可能性を高めて,正当性のあるローカルモデル更新を保護する,ストレートなデバイスに対する利害関係をより頻繁に報奨する,専用の概念実証コンセンサス機構を設計した。
これらのソリューションは、正当性のあるデバイス内でのさらなるフェデレーションを促進し、堅牢なFLを可能にする。
MNIST分類のエミュレーション結果は、悪意のあるデバイスの15%で、VBFLは87%の精度で、Vanilla FLより7.4倍高い。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Voltran: Unlocking Trust and Confidentiality in Decentralized Federated Learning Aggregation [12.446757264387564]
我々は、フェデレートラーニング(FL)のための信頼、機密性、堅牢性を達成するために設計された革新的なハイブリッドプラットフォームであるVoltranを紹介する。
FLアグリゲーションをTEEにオフロードして、分離され、信頼され、カスタマイズ可能なオフチェーン実行を提供します。
マルチSGX並列実行戦略を導入することで、複数のFLシナリオに強力なスケーラビリティを提供する。
論文 参考訳(メタデータ) (2024-08-13T13:33:35Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - FAIR-BFL: Flexible and Incentive Redesign for Blockchain-based Federated
Learning [19.463891024499773]
Vanilla Federated Learning (FL)は、集中型のグローバルアグリゲーションメカニズムに依存し、すべてのクライアントが誠実であると仮定する。
これにより、FLが単一障害点と不適切なクライアントを緩和することが難しくなります。
我々は、新しいBFLフレームワークを設計し、評価し、FAIR-BFLと呼ばれる柔軟性とインセンティブを持つバニラBFLの課題を解決した。
論文 参考訳(メタデータ) (2022-06-26T15:20:45Z) - On the Decentralization of Blockchain-enabled Asynchronous Federated
Learning [3.3701306798873305]
フェデレートラーニング(FL)は実運用環境における真のリアルタイムアプリケーションを可能にすることが期待されている。
ブロックチェーン(FLchainとも呼ばれる)によるFLの権限付与は、台帳の不整合と情報の年齢(AoI)に関していくつかの意味を持つ。
本稿では,FLチェーン設定の影響について光を当て,AoIと台帳の不整合がFL性能に与える影響について検討する。
論文 参考訳(メタデータ) (2022-05-20T14:20:47Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Resource Management for Blockchain-enabled Federated Learning: A Deep
Reinforcement Learning Approach [54.29213445674221]
Federated Learning (BFL)は、機械学習モデル所有者(MLMO)が必要とするニューラルネットワークモデルを、モバイルデバイスが協調的にトレーニングすることを可能にする。
BFLの問題は、モバイルデバイスがシステムの寿命とトレーニング効率を低下させるエネルギーとCPUの制約を持っていることである。
我々は,Deep Reinforcement Learning (DRL) を用いて最適決定を導出することを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。