論文の概要: FedDef: Robust Federated Learning-based Network Intrusion Detection
Systems Against Gradient Leakage
- arxiv url: http://arxiv.org/abs/2210.04052v1
- Date: Sat, 8 Oct 2022 15:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:35:32.685805
- Title: FedDef: Robust Federated Learning-based Network Intrusion Detection
Systems Against Gradient Leakage
- Title(参考訳): feddef:ロバストなフェデレーション学習に基づくネットワーク侵入検出システム
- Authors: Jiahui Chen, Yi Zhao, Qi Li, Ke Xu
- Abstract要約: FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
4つのデータセットに対する4つの既存の防御を実験的に評価し、我々の防衛が強力なプライバシー保証ですべてのベースラインを上回ることを示す。
- 参考スコア(独自算出の注目度): 15.89550157395199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have been widely applied to anomaly-based network
intrusion detection systems (NIDS) to detect malicious traffic. To expand the
usage scenarios of DL-based methods, the federated learning (FL) framework
allows intelligent techniques to jointly train a model by multiple individuals
on the basis of respecting individual data privacy. However, it has not yet
been systematically evaluated how robust FL-based NIDSs are against existing
privacy attacks under existing defenses. To address this issue, in this paper
we propose two privacy evaluation metrics designed for FL-based NIDSs,
including leveraging two reconstruction attacks to recover the training data to
obtain the privacy score for traffic features, followed by Generative
Adversarial Network (GAN) based attack that generates adversarial examples with
the reconstructed benign traffic to evaluate evasion rate against other NIDSs.
We conduct experiments to show that existing defenses provide little protection
that the corresponding adversarial traffic can even evade the SOTA NIDS
Kitsune. To build a more robust FL-based NIDS, we further propose a novel
optimization-based input perturbation defense strategy with theoretical
guarantee that achieves both high utility by minimizing the gradient distance
and strong privacy protection by maximizing the input distance. We
experimentally evaluate four existing defenses on four datasets and show that
our defense outperforms all the baselines with strong privacy guarantee while
maintaining model accuracy loss within 3% under optimal parameter combination.
- Abstract(参考訳): ディープラーニング手法は、悪意のあるトラフィックを検出するために、異常に基づくネットワーク侵入検知システム(NIDS)に広く応用されている。
dlベースの手法の利用シナリオを拡張するために、ff(federated learning)フレームワークでは、個々のデータプライバシを尊重して、複数の個人によるモデルを共同でトレーニングすることができる。
しかし、flベースのnidsが既存の防御の下で既存のプライバシー攻撃に対していかに強固であるかは、まだ体系的に評価されていない。
そこで本稿では,flベースのnidss用に設計された2つのプライバシ評価指標を提案する。2つのリコンストラクションアタックを利用して,トラフィック特徴のプライバシスコアを取得するためのトレーニングデータを復元し,さらに,再構成された良性トラフィックと敵対的な例を生成して他のnidssに対する回避率を評価するジェネラティブ・アドバーサリー・ネットワーク(gan)による攻撃を行う。
我々は,既存の防衛が,対応する敵トラフィックがSOTA NIDS きつねを回避できるような保護をほとんど提供していないことを示す実験を行う。
さらに,より堅牢なflベースのnidsを構築するために,入力距離を最大化することにより,勾配距離と強力なプライバシー保護を最小化し,高い実用性を実現するための理論的保証を備えた,新しい最適化ベースの入力摂動防御戦略を提案する。
4つのデータセットに対する4つの既存の防御を実験的に評価し、最適なパラメータの組み合わせでモデル精度の損失を3%以下に抑えながら、我々の防衛が強力なプライバシ保証で全てのベースラインを上回っていることを示す。
関連論文リスト
- Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。