論文の概要: Analyzing the Robustness of Decentralized Horizontal and Vertical
Federated Learning Architectures in a Non-IID Scenario
- arxiv url: http://arxiv.org/abs/2210.11061v1
- Date: Thu, 20 Oct 2022 07:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:25:16.374474
- Title: Analyzing the Robustness of Decentralized Horizontal and Vertical
Federated Learning Architectures in a Non-IID Scenario
- Title(参考訳): 非IIDシナリオにおける分散水平・垂直連立学習アーキテクチャのロバスト性の解析
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Enrique
Tom\'as Mart\'inez Beltr\'an, Daniel Demeter, G\'er\^ome Bovet, Gregorio
Mart\'inez P\'erez, Burkhard Stiller
- Abstract要約: フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、機械学習モデルとディープラーニングモデルを協調的にトレーニングすることを可能にする。
FLパラダイムは、悪意のある参加者がトレーニングプロセスに対する敵の攻撃を開始する可能性があるため、信頼性に影響を及ぼす欠点を依然として示している。
本研究は,水平シナリオと垂直シナリオ,すなわちHoriChain,VertiChain,VertiCombの3つの分散FLアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.5172201569251684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows participants to collaboratively train machine
and deep learning models while protecting data privacy. However, the FL
paradigm still presents drawbacks affecting its trustworthiness since malicious
participants could launch adversarial attacks against the training process.
Related work has studied the robustness of horizontal FL scenarios under
different attacks. However, there is a lack of work evaluating the robustness
of decentralized vertical FL and comparing it with horizontal FL architectures
affected by adversarial attacks. Thus, this work proposes three decentralized
FL architectures, one for horizontal and two for vertical scenarios, namely
HoriChain, VertiChain, and VertiComb. These architectures present different
neural networks and training protocols suitable for horizontal and vertical
scenarios. Then, a decentralized, privacy-preserving, and federated use case
with non-IID data to classify handwritten digits is deployed to evaluate the
performance of the three architectures. Finally, a set of experiments computes
and compares the robustness of the proposed architectures when they are
affected by different data poisoning based on image watermarks and gradient
poisoning adversarial attacks. The experiments show that even though particular
configurations of both attacks can destroy the classification performance of
the architectures, HoriChain is the most robust one.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、機械学習モデルとディープラーニングモデルの協調トレーニングを可能にする。
しかし、FLパラダイムは、悪意のある参加者がトレーニングプロセスに対する敵の攻撃を開始する可能性があるため、信頼性に影響を及ぼす欠点をまだ示している。
関連する研究は、異なる攻撃下で水平flシナリオのロバスト性を研究している。
しかし、分散垂直flのロバスト性を評価し、敵の攻撃によって影響を受ける水平flアーキテクチャと比較する作業が不足している。
そこで本研究では,水平シナリオと垂直シナリオ,すなわちHoriChain,VertiChain,VertiCombの3つの分散FLアーキテクチャを提案する。
これらのアーキテクチャは、水平および垂直のシナリオに適した異なるニューラルネットワークとトレーニングプロトコルを提供する。
次に、非IIDデータによる分散化、プライバシ保存、フェデレートされたユースケースを配置して手書き桁を分類し、3つのアーキテクチャの性能を評価する。
最後に、一連の実験は、画像ウォーターマークと勾配中毒攻撃に基づいて異なるデータ中毒に影響を受ける場合、提案されたアーキテクチャのロバスト性を計算し比較する。
実験によると、両方の攻撃の特定の構成がアーキテクチャの分類性能を損なう可能性があるにもかかわらず、HoriChainが最も堅牢である。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated Learning [9.046402244232343]
Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
この研究は、DFLの毒殺攻撃に対抗する防衛戦略であるSentinelを紹介した。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Efficient Vertical Federated Learning with Secure Aggregation [10.295508659999783]
本稿では,安全アグリゲーションのための最先端セキュリティモジュールを用いて,垂直FLを安全かつ効率的に訓練するための新しい設計を提案する。
我々は,同相暗号 (HE) と比較して9.1e2 3.8e4 の高速化を図りながら,本手法がトレーニング性能に影響を及ぼさないことを実証的に実証した。
論文 参考訳(メタデータ) (2023-05-18T18:08:36Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。