論文の概要: Analyzing the Robustness of Decentralized Horizontal and Vertical
Federated Learning Architectures in a Non-IID Scenario
- arxiv url: http://arxiv.org/abs/2210.11061v1
- Date: Thu, 20 Oct 2022 07:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:25:16.374474
- Title: Analyzing the Robustness of Decentralized Horizontal and Vertical
Federated Learning Architectures in a Non-IID Scenario
- Title(参考訳): 非IIDシナリオにおける分散水平・垂直連立学習アーキテクチャのロバスト性の解析
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Enrique
Tom\'as Mart\'inez Beltr\'an, Daniel Demeter, G\'er\^ome Bovet, Gregorio
Mart\'inez P\'erez, Burkhard Stiller
- Abstract要約: フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、機械学習モデルとディープラーニングモデルを協調的にトレーニングすることを可能にする。
FLパラダイムは、悪意のある参加者がトレーニングプロセスに対する敵の攻撃を開始する可能性があるため、信頼性に影響を及ぼす欠点を依然として示している。
本研究は,水平シナリオと垂直シナリオ,すなわちHoriChain,VertiChain,VertiCombの3つの分散FLアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.5172201569251684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows participants to collaboratively train machine
and deep learning models while protecting data privacy. However, the FL
paradigm still presents drawbacks affecting its trustworthiness since malicious
participants could launch adversarial attacks against the training process.
Related work has studied the robustness of horizontal FL scenarios under
different attacks. However, there is a lack of work evaluating the robustness
of decentralized vertical FL and comparing it with horizontal FL architectures
affected by adversarial attacks. Thus, this work proposes three decentralized
FL architectures, one for horizontal and two for vertical scenarios, namely
HoriChain, VertiChain, and VertiComb. These architectures present different
neural networks and training protocols suitable for horizontal and vertical
scenarios. Then, a decentralized, privacy-preserving, and federated use case
with non-IID data to classify handwritten digits is deployed to evaluate the
performance of the three architectures. Finally, a set of experiments computes
and compares the robustness of the proposed architectures when they are
affected by different data poisoning based on image watermarks and gradient
poisoning adversarial attacks. The experiments show that even though particular
configurations of both attacks can destroy the classification performance of
the architectures, HoriChain is the most robust one.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、機械学習モデルとディープラーニングモデルの協調トレーニングを可能にする。
しかし、FLパラダイムは、悪意のある参加者がトレーニングプロセスに対する敵の攻撃を開始する可能性があるため、信頼性に影響を及ぼす欠点をまだ示している。
関連する研究は、異なる攻撃下で水平flシナリオのロバスト性を研究している。
しかし、分散垂直flのロバスト性を評価し、敵の攻撃によって影響を受ける水平flアーキテクチャと比較する作業が不足している。
そこで本研究では,水平シナリオと垂直シナリオ,すなわちHoriChain,VertiChain,VertiCombの3つの分散FLアーキテクチャを提案する。
これらのアーキテクチャは、水平および垂直のシナリオに適した異なるニューラルネットワークとトレーニングプロトコルを提供する。
次に、非IIDデータによる分散化、プライバシ保存、フェデレートされたユースケースを配置して手書き桁を分類し、3つのアーキテクチャの性能を評価する。
最後に、一連の実験は、画像ウォーターマークと勾配中毒攻撃に基づいて異なるデータ中毒に影響を受ける場合、提案されたアーキテクチャのロバスト性を計算し比較する。
実験によると、両方の攻撃の特定の構成がアーキテクチャの分類性能を損なう可能性があるにもかかわらず、HoriChainが最も堅牢である。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Handling Data Heterogeneity via Architectural Design for Federated
Visual Recognition [16.50490537786593]
4つのFLデータセットを用いて、5つの異なるアーキテクチャファミリからの19の視覚認識モデルについて検討する。
本研究は,現実的なシナリオにおけるコンピュータビジョンタスクにおけるアーキテクチャ設計の重要性を強調した。
論文 参考訳(メタデータ) (2023-10-23T17:59:16Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated
Learning [7.228253116465784]
本研究は,分散型フェデレートラーニング(DFL)における毒殺対策戦略であるSentinelを紹介する。
センチネルは多様なデータセットと様々な毒殺攻撃タイプと脅威レベルで評価され、標的外および標的の毒殺攻撃に対する最先端のパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - Understanding Adversarial Transferability in Federated Learning [16.204192821886927]
新規かつ実践的な環境での堅牢性とセキュリティの問題について検討する。
悪意のあるクライアントのグループは、トレーニング中にアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、モデルに影響を与えました。
我々の目標は、この実践的な環境でFLシステムが直面する課題について、完全な理解を提供することです。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。