論文の概要: Decentralized and Robust Privacy-Preserving Model Using Blockchain-Enabled Federated Deep Learning in Intelligent Enterprises
- arxiv url: http://arxiv.org/abs/2502.17485v1
- Date: Tue, 18 Feb 2025 15:17:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 02:21:17.516147
- Title: Decentralized and Robust Privacy-Preserving Model Using Blockchain-Enabled Federated Deep Learning in Intelligent Enterprises
- Title(参考訳): ブロックチェーンによるインテリジェント企業におけるフェデレーション深層学習を用いた分散型かつロバストなプライバシ保護モデル
- Authors: Reza Fotohi, Fereidoon Shams Aliee, Bahar Farahani,
- Abstract要約: セキュアなブロックチェーンを実現するFederated Deep Learning ModelであるFedAnilを提案する。
エンタープライズモデルの分散化、パフォーマンス、タンパの証明プロパティを改善します。
Sent140、FashionMNIST、FEMNIST、CIFAR10といった新しい実世界のデータセットを用いて大規模な実験を行った。
- 参考スコア(独自算出の注目度): 0.5461938536945723
- License:
- Abstract: In Federated Deep Learning (FDL), multiple local enterprises are allowed to train a model jointly. Then, they submit their local updates to the central server, and the server aggregates the updates to create a global model. However, trained models usually perform worse than centralized models, especially when the training data distribution is non-independent and identically distributed (nonIID). NonIID data harms the accuracy and performance of the model. Additionally, due to the centrality of federated learning (FL) and the untrustworthiness of enterprises, traditional FL solutions are vulnerable to security and privacy attacks. To tackle this issue, we propose FedAnil, a secure blockchain enabled Federated Deep Learning Model that improves enterprise models decentralization, performance, and tamper proof properties, incorporating two main phases. The first phase addresses the nonIID challenge (label and feature distribution skew). The second phase addresses security and privacy concerns against poisoning and inference attacks through three steps. Extensive experiments were conducted using the Sent140, FashionMNIST, FEMNIST, and CIFAR10 new real world datasets to evaluate FedAnils robustness and performance. The simulation results demonstrate that FedAnil satisfies FDL privacy preserving requirements. In terms of convergence analysis, the model parameter obtained with FedAnil converges to the optimum of the model parameter. In addition, it performs better in terms of accuracy (more than 11, 15, and 24%) and computation overhead (less than 8, 10, and 15%) compared with baseline approaches, namely ShieldFL, RVPFL, and RFA.
- Abstract(参考訳): Federated Deep Learning (FDL)では、複数の地元企業が共同でモデルをトレーニングすることが認められている。
そして、ローカル更新を中央サーバに送信し、サーバがアップデートを集約してグローバルモデルを作成する。
しかし、トレーニングされたモデルは、特にトレーニングされたデータ分布が非独立で、同一の分散(非IID)である場合、通常、集中型モデルよりもパフォーマンスが悪くなります。
非IIDデータはモデルの精度と性能を損なう。
さらに、連邦学習(FL)の中央集権性と企業の不信感のため、従来のFLソリューションは、セキュリティやプライバシ攻撃に対して脆弱である。
この問題に対処するため、企業モデルの分散化、パフォーマンス、改ざん性を向上し、2つの主要なフェーズを取り入れたセキュアなブロックチェーン対応Federated Deep Learning ModelであるFedAnilを提案する。
第1フェーズは、非IIDチャレンジ(ラベルと特徴分布スキュー)に対処する。
第2フェーズでは,3つのステップを通じて,毒殺と推論攻撃に対するセキュリティとプライバシの懸念に対処する。
Sent140, FashionMNIST, FEMNIST, CIFAR10の新しい実世界のデータセットを用いてFedAnilsの堅牢性と性能を評価する実験を行った。
シミュレーションの結果,FedAnilはFDLのプライバシー保護要件を満たすことがわかった。
収束解析では、FedAnilで得られたモデルパラメータはモデルパラメータの最適値に収束する。
さらに精度(11,15,24%以上)と計算オーバーヘッド(8,10,15%未満)の点で、ShieldFL, RVPFL, RFAといったベースラインアプローチよりも優れています。
関連論文リスト
- BlindFL: Segmented Federated Learning with Fully Homomorphic Encryption [0.0]
Federated Learning(FL)は、エッジデバイス上でAIモデルをトレーニングおよびデプロイするために使用される、プライバシ保護のエッジ・ツー・クラウド技術である。
BlindFLは、クライアントがローカルモデル更新のサブセットを暗号化して送信するグローバルモデルアグリゲーションのためのフレームワークである。
BlindFLは、単一キーFHEベースのFLスキームの最初のクライアントサイドモデル中毒攻撃を著しく阻害する。
論文 参考訳(メタデータ) (2025-01-20T18:42:21Z) - Maximizing Uncertainty for Federated learning via Bayesian Optimisation-based Model Poisoning [19.416193229599852]
悪意のあるユーザは、悪意のあるモデルパラメータを作成して、予測と生成能力を損なうことができる。
我々は,グローバルモデル出力の不確実性を最大化することを目的とした,Delphiという新しいモデル中毒攻撃手法を提案する。
数値的な結果から,Delphi-BOはDelphi-LSTRよりも高い不確実性を誘導することが示された。
論文 参考訳(メタデータ) (2025-01-14T10:46:41Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。