論文の概要: Byzantine-Robust Aggregation for Securing Decentralized Federated
Learning
- arxiv url: http://arxiv.org/abs/2409.17754v1
- Date: Thu, 26 Sep 2024 11:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 19:53:49.709196
- Title: Byzantine-Robust Aggregation for Securing Decentralized Federated
Learning
- Title(参考訳): 非中央集権化のためのビザンチン・ロバスト集団
学び
- Authors: Diego Cajaraville-Aboy, Ana Fern\'andez-Vilas, Rebeca P.
D\'iaz-Redondo, and Manuel Fern\'andez-Veiga
- Abstract要約: Federated Learning(FL)は、デバイス上でAIモデルをローカルにトレーニングすることで、プライバシの問題に対処する分散機械学習アプローチとして登場した。
分散フェデレートラーニング(DFL)は、中央サーバを排除し、単一障害点の回避を通じてスケーラビリティと堅牢性を向上させることで、FLパラダイムを拡張します。
We present a novel byzantine-robust aggregate algorithm to enhance the security of DFL environment, coin, WFAgg。
- 参考スコア(独自算出の注目度): 0.32985979395737774
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) emerges as a distributed machine learning approach
that addresses privacy concerns by training AI models locally on devices.
Decentralized Federated Learning (DFL) extends the FL paradigm by eliminating
the central server, thereby enhancing scalability and robustness through the
avoidance of a single point of failure. However, DFL faces significant
challenges in optimizing security, as most Byzantine-robust algorithms proposed
in the literature are designed for centralized scenarios. In this paper, we
present a novel Byzantine-robust aggregation algorithm to enhance the security
of Decentralized Federated Learning environments, coined WFAgg. This proposal
handles the adverse conditions and strength robustness of dynamic decentralized
topologies at the same time by employing multiple filters to identify and
mitigate Byzantine attacks. Experimental results demonstrate the effectiveness
of the proposed algorithm in maintaining model accuracy and convergence in the
presence of various Byzantine attack scenarios, outperforming state-of-the-art
centralized Byzantine-robust aggregation schemes (such as Multi-Krum or
Clustering). These algorithms are evaluated on an IID image classification
problem in both centralized and decentralized scenarios.
- Abstract(参考訳): Federated Learning(FL)は、デバイス上でAIモデルをローカルにトレーニングすることで、プライバシの問題に対処する分散機械学習アプローチとして登場した。
分散フェデレートラーニング(DFL)は、中央サーバを排除し、単一障害点の回避を通じてスケーラビリティと堅牢性を向上させることで、FLパラダイムを拡張します。
しかしながら、DFLはセキュリティを最適化する上で大きな課題に直面しており、文献で提案されているほとんどのビザンチン・ロバストアルゴリズムは集中的なシナリオのために設計されている。
本稿では,分散型フェデレート学習環境(WFAgg)の安全性を高めるために,新しいビザンチン・ロバスト集約アルゴリズムを提案する。
この提案は、動的分散トポロジの悪条件と強靭性を同時に処理し、複数のフィルタを用いてビザンツ攻撃を特定し軽減する。
実験により,Byzantine攻撃シナリオの存在下でモデル精度と収束性を維持するためのアルゴリズムの有効性が示され,Byzantine-Robustアグリゲーションスキーム(Multi-KrumやClusteringなど)よりも優れていた。
これらのアルゴリズムは集中化シナリオと分散化シナリオの両方においてIDD画像分類問題に基づいて評価される。
関連論文リスト
- Impact of Network Topology on Byzantine Resilience in Decentralized Federated Learning [0.0]
本研究では、複雑な大規模ネットワーク構造における最先端のビザンチン-ロバスト凝集法の効果について検討する。
最先端のビザンツのロバスト・アグリゲーション戦略は、大規模な非完全連結ネットワークではレジリエントではないことが判明した。
論文 参考訳(メタデータ) (2024-07-06T17:47:44Z) - The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks [6.661122374160369]
連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
本稿では,ネットワーク内の配置を協調的に調整できる各種対向配置戦略において,分散FLの性能を解析する。
本稿では,敵同士の平均ネットワーク距離を最大化することにより,敵の中央性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T06:48:50Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Uncertainty-aware Clustering for Unsupervised Domain Adaptive Object
Re-identification [123.75412386783904]
最先端のオブジェクトRe-IDアプローチでは、クラスタリングアルゴリズムを採用して、ラベルのないターゲットドメインの擬似ラベルを生成する。
UDAタスクのための不確実性対応クラスタリングフレームワーク(UCF)を提案する。
我々のUCF法は、オブジェクトRe-IDのための複数のUDAタスクにおける最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2021-08-22T09:57:14Z) - Federated Learning for Intrusion Detection in IoT Security: A Hybrid
Ensemble Approach [0.0]
我々はまず,ハイブリットアンサンブルモデルであるPHECをベースとしたIDS用アーキテクチャを提案する。
次に、ラベルノイズ問題に対処するために、集中型およびフェデレーションされた環境における耐雑音性PHECを提案する。
各種セキュリティ攻撃から得られた4つのベンチマークデータセットによる実験結果から,FPRを低ノイズでクリーンなデータに保ちながら高いTPRを達成することが示された。
論文 参考訳(メタデータ) (2021-06-25T06:33:35Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。