論文の概要: PPBFL: A Privacy Protected Blockchain-based Federated Learning Model
- arxiv url: http://arxiv.org/abs/2401.01204v2
- Date: Mon, 8 Jan 2024 15:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:22:58.682780
- Title: PPBFL: A Privacy Protected Blockchain-based Federated Learning Model
- Title(参考訳): PPBFL: ブロックチェーンベースのフェデレーション学習モデル
- Authors: Yang Li, Chunhe Xia, Wanshuang Lin, Tianbo Wang
- Abstract要約: フェデレート学習の安全性を高めるために,保護型フェデレート学習モデル(PPBFL)を提案する。
本稿では,訓練ノードのインセンティブを目的とした,連邦学習に適した訓練作業証明(PoTW)アルゴリズムを提案する。
また、リングシグネチャ技術を利用した新たなミックストランザクション機構を提案し、ローカルトレーニングクライアントのIDプライバシをよりよく保護する。
- 参考スコア(独自算出の注目度): 6.278098707317501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of machine learning and a growing concern for data
privacy, federated learning has become a focal point of attention. However,
attacks on model parameters and a lack of incentive mechanisms hinder the
effectiveness of federated learning. Therefore, we propose A Privacy Protected
Blockchain-based Federated Learning Model (PPBFL) to enhance the security of
federated learning and encourage active participation of nodes in model
training. Blockchain technology ensures the integrity of model parameters
stored in the InterPlanetary File System (IPFS), providing protection against
tampering. Within the blockchain, we introduce a Proof of Training Work (PoTW)
consensus algorithm tailored for federated learning, aiming to incentive
training nodes. This algorithm rewards nodes with greater computational power,
promoting increased participation and effort in the federated learning process.
A novel adaptive differential privacy algorithm is simultaneously applied to
local and global models. This safeguards the privacy of local data at training
clients, preventing malicious nodes from launching inference attacks.
Additionally, it enhances the security of the global model, preventing
potential security degradation resulting from the combination of numerous local
models. The possibility of security degradation is derived from the composition
theorem. By introducing reverse noise in the global model, a zero-bias estimate
of differential privacy noise between local and global models is achieved.
Furthermore, we propose a new mix transactions mechanism utilizing ring
signature technology to better protect the identity privacy of local training
clients. Security analysis and experimental results demonstrate that PPBFL,
compared to baseline methods, not only exhibits superior model performance but
also achieves higher security.
- Abstract(参考訳): 機械学習の急速な発展とデータプライバシーに対する懸念の高まりにより、フェデレーション学習は注目の的になっている。
しかし、モデルパラメータへの攻撃とインセンティブ機構の欠如は、連合学習の有効性を阻害する。
そこで本研究では,プライバシ保護ブロックチェーンに基づくフェデレート学習モデル(PPBFL)を提案し,フェデレーション学習の安全性を高め,モデルトレーニングにおけるノードの積極的な参加を促す。
ブロックチェーン技術は、IPFS(InterPlanetary File System)に格納されているモデルパラメータの整合性を保証する。
ブロックチェーン内では,訓練ノードのインセンティブ化を目的とした,連合学習に適した学習作業(potw)コンセンサスアルゴリズムを紹介する。
このアルゴリズムは、より大きな計算能力を持つノードに報酬を与え、連合学習プロセスへの参加と努力を促進する。
新しい適応微分プライバシーアルゴリズムは、同時に局所モデルと大域モデルに適用される。
これにより、トレーニングクライアントのローカルデータのプライバシーを保護し、悪意のあるノードが推論攻撃を開始するのを防ぐ。
さらに、グローバルモデルのセキュリティを強化し、多数のローカルモデルの組み合わせによる潜在的なセキュリティ低下を防止する。
セキュリティ劣化の可能性は合成定理から導かれる。
グローバルモデルにリバースノイズを導入することにより、ローカルモデルとグローバルモデルの間の差分プライバシーノイズのゼロバイアス推定を実現する。
さらに,リングシグネチャ技術を利用した新たなミックストランザクション機構を提案し,ローカルトレーニングクライアントのIDプライバシをよりよく保護する。
セキュリティ分析と実験の結果,ppbflは,ベースライン法と比較して,優れたモデル性能を示すだけでなく,高いセキュリティを実現することが示された。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - B^2SFL: A Bi-level Blockchained Architecture for Secure Federated
Learning-based Traffic Prediction [4.3030251749726345]
Federated Learning(FL)は、プライバシを保存する機械学習技術である。
悪意のある参加者と集中型のFLサーバによって、セキュリティとプライバシの保証が侵害される可能性がある。
本稿では,セキュアなフェデレート学習に基づくトラフィック予測のための,双方向ブロックチェーンアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-23T08:06:05Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z) - A Blockchain-based Decentralized Federated Learning Framework with
Committee Consensus [20.787163387487816]
モバイルコンピューティングのシナリオでは、フェデレートされた学習は、ユーザがプライベートデータを公開することを防ぐと同時に、さまざまな現実世界のアプリケーションのためにグローバルモデルを協調的にトレーニングする。
悪意のあるクライアントや、グローバルモデルやユーザプライバシデータに対する中央サーバの攻撃により、フェデレートドラーニングのセキュリティはますます疑問視されている。
本稿では,ブロックチェーンに基づく分散型フェデレーション学習フレームワーク,すなわち委員会コンセンサス(BFLC)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。