論文の概要: FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2210.04052v3
- Date: Wed, 2 Aug 2023 07:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 18:24:35.850145
- Title: FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems
- Title(参考訳): FedDef:フェデレート学習によるネットワーク侵入検知システムにおける漏洩防止
- Authors: Jiahui Chen, Yi Zhao, Qi Li, Xuewei Feng, Ke Xu
- Abstract要約: FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 15.39058389031301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) methods have been widely applied to anomaly-based network
intrusion detection system (NIDS) to detect malicious traffic. To expand the
usage scenarios of DL-based methods, federated learning (FL) allows multiple
users to train a global model on the basis of respecting individual data
privacy. However, it has not yet been systematically evaluated how robust
FL-based NIDSs are against existing privacy attacks under existing defenses. To
address this issue, we propose two privacy evaluation metrics designed for
FL-based NIDSs, including (1) privacy score that evaluates the similarity
between the original and recovered traffic features using reconstruction
attacks, and (2) evasion rate against NIDSs using adversarial attack with the
recovered traffic. We conduct experiments to illustrate that existing defenses
provide little protection and the corresponding adversarial traffic can even
evade the SOTA NIDS Kitsune. To defend against such attacks and build a more
robust FL-based NIDS, we further propose FedDef, a novel optimization-based
input perturbation defense strategy with theoretical guarantee. It achieves
both high utility by minimizing the gradient distance and strong privacy
protection by maximizing the input distance. We experimentally evaluate four
existing defenses on four datasets and show that our defense outperforms all
the baselines in terms of privacy protection with up to 7 times higher privacy
score, while maintaining model accuracy loss within 3% under optimal parameter
combination.
- Abstract(参考訳): anomaly-based network intrusion detection system (nids) では,悪意のあるトラフィックを検出するために,ディープラーニング (dl) 手法が広く適用されている。
dlベースの手法の利用シナリオを拡張するために、フェデレーション学習(fl)では、複数のユーザが個々のデータプライバシを尊重してグローバルモデルをトレーニングすることができる。
しかし、flベースのnidsが既存の防御の下で既存のプライバシー攻撃に対していかに強固であるかは、まだ体系的に評価されていない。
この問題に対処するため, FLベースのNIDSを対象とした2つのプライバシ評価指標を提案し, 1) 復元攻撃による元の交通特徴と回復した交通特徴の類似性を評価するプライバシースコア, (2) 回復した交通と敵対攻撃によるNIDSの回避率について検討した。
我々は,既存の防御がほとんど保護しておらず,対応する敵トラフィックがSOTA NIDSKitsuneを回避できることを示す実験を行った。
このような攻撃を防ぎ、より堅牢なFLベースのNIDSを構築するために、我々はさらに、理論的保証のある新しい最適化ベースの入力摂動防御戦略であるFedDefを提案する。
入力距離を最大化することにより、勾配距離を最小化し、強力なプライバシー保護を実現する。
4つのデータセットに対する4つの既存の防御を実験的に評価し、我々の防衛は、最適パラメータの組み合わせでモデル精度の損失を3%以下に抑えながら、最大7倍のプライバシースコアでプライバシー保護の観点から全てのベースラインを上回ります。
関連論文リスト
- PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Local and Central Differential Privacy for Robustness and Privacy in
Federated Learning [13.115388879531967]
フェデレートラーニング(FL)では、モデルの更新のみを交換しながらデータセットをローカルに保つことで、複数の参加者が機械学習モデルを協調的にトレーニングすることができる。
本稿では,FLにおけるプライバシーとロバスト性の両方を保護するために差分プライバシ(DP)をどの程度利用できるかについて検討する。
論文 参考訳(メタデータ) (2020-09-08T07:37:23Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。