論文の概要: Security Assessment of Hierarchical Federated Deep Learning
- arxiv url: http://arxiv.org/abs/2408.10752v1
- Date: Tue, 20 Aug 2024 11:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 13:55:03.954841
- Title: Security Assessment of Hierarchical Federated Deep Learning
- Title(参考訳): 階層型深層学習のセキュリティ評価
- Authors: D Alqattan, R Sun, H Liang, G Nicosia, V Snasel, R Ranjan, V Ojha,
- Abstract要約: 階層的連合学習(HFL)は、有望な分散ディープラーニングモデルトレーニングパラダイムであるが、敵の攻撃による重要なセキュリティ上の懸念がある。
本研究では,HFLの安全性を新たな手法を用いて検討し,敵の攻撃予測時間と訓練時間に対するレジリエンスに着目して評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hierarchical federated learning (HFL) is a promising distributed deep learning model training paradigm, but it has crucial security concerns arising from adversarial attacks. This research investigates and assesses the security of HFL using a novel methodology by focusing on its resilience against adversarial attacks inference-time and training-time. Through a series of extensive experiments across diverse datasets and attack scenarios, we uncover that HFL demonstrates robustness against untargeted training-time attacks due to its hierarchical structure. However, targeted attacks, particularly backdoor attacks, exploit this architecture, especially when malicious clients are positioned in the overlapping coverage areas of edge servers. Consequently, HFL shows a dual nature in its resilience, showcasing its capability to recover from attacks thanks to its hierarchical aggregation that strengthens its suitability for adversarial training, thereby reinforcing its resistance against inference-time attacks. These insights underscore the necessity for balanced security strategies in HFL systems, leveraging their inherent strengths while effectively mitigating vulnerabilities.
- Abstract(参考訳): 階層的連合学習(HFL)は、有望な分散ディープラーニングモデルトレーニングパラダイムであるが、敵の攻撃による重要なセキュリティ上の懸念がある。
本研究では,HFLの安全性を新たな手法を用いて検討し,敵の攻撃予測時間と訓練時間に対するレジリエンスに着目して評価する。
多様なデータセットや攻撃シナリオにまたがる広範な実験を通じて、HFLがその階層構造のため、未目標のトレーニング時間アタックに対して堅牢性を示すことが判明した。
しかし、ターゲット攻撃、特にバックドア攻撃は、特にエッジサーバのオーバーラップするカバレッジ領域に悪意のあるクライアントが配置されている場合、このアーキテクチャを利用する。
その結果、HFLは弾力性の二重性を示し、その階層的な凝集により攻撃から回復する能力を示し、敵の訓練に適合性を高め、推論時攻撃に対する抵抗を補強する。
これらの洞察は、HFLシステムにおけるバランスのとれたセキュリティ戦略の必要性を浮き彫りにして、脆弱性を効果的に軽減しつつ、その固有の強みを活用している。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Purple-teaming LLMs with Adversarial Defender Training [57.535241000787416]
本稿では,PAD(Adversarial Defender Training)を用いたPurple-teaming LLMを提案する。
PADは、赤チーム(アタック)技術と青チーム(セーフティトレーニング)技術を新たに取り入れることで、LSMを保護するために設計されたパイプラインである。
PADは、効果的な攻撃と堅牢な安全ガードレールの確立の両方において、既存のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-07-01T23:25:30Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning [13.12397828096428]
敵のロバストネス・アンハードニング(ARU)は、分散トレーニング中にモデルロバストネスを意図的に損なうために、敵のサブセットによって使用される。
本研究は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実証実験である。
論文 参考訳(メタデータ) (2023-10-17T21:38:41Z) - Learning to Backdoor Federated Learning [9.046972927978997]
FL(Federated Learning)システムでは、悪意のある参加者がバックドアを集約されたモデルに簡単に埋め込むことができる。
一般的な強化学習に基づくバックドアアタックフレームワークを提案する。
我々のフレームワークは適応性と柔軟性があり、最先端の防御の下でも強力な攻撃性能と耐久性を実現する。
論文 参考訳(メタデータ) (2023-03-06T17:47:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。