論文の概要: Genetic Algorithm-Based Dynamic Backdoor Attack on Federated
Learning-Based Network Traffic Classification
- arxiv url: http://arxiv.org/abs/2310.06855v1
- Date: Wed, 27 Sep 2023 14:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:16:38.123607
- Title: Genetic Algorithm-Based Dynamic Backdoor Attack on Federated
Learning-Based Network Traffic Classification
- Title(参考訳): 遺伝的アルゴリズムに基づく動的バックドア攻撃によるフェデレーション学習型ネットワークトラフィック分類
- Authors: Mahmoud Nazzal, Nura Aljaafari, Ahmed Sawalmeh, Abdallah Khreishah,
Muhammad Anan, Abdulelah Algosaibi, Mohammed Alnaeem, Adel Aldalbahi,
Abdulaziz Alhumam, Conrado P. Vizcarra, and Shadan Alhamed
- Abstract要約: 本稿では,GABAttackを提案する。GABAttackは,ネットワークトラフィック分類のためのフェデレーション学習に対する新しい遺伝的アルゴリズムに基づくバックドア攻撃である。
この研究は、ネットワークセキュリティの専門家や実践者がこのような攻撃に対して堅牢な防御策を開発するための警告となる。
- 参考スコア(独自算出の注目度): 1.1887808102491482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables multiple clients to collaboratively contribute to
the learning of a global model orchestrated by a central server. This learning
scheme promotes clients' data privacy and requires reduced communication
overheads. In an application like network traffic classification, this helps
hide the network vulnerabilities and weakness points. However, federated
learning is susceptible to backdoor attacks, in which adversaries inject
manipulated model updates into the global model. These updates inject a salient
functionality in the global model that can be launched with specific input
patterns. Nonetheless, the vulnerability of network traffic classification
models based on federated learning to these attacks remains unexplored. In this
paper, we propose GABAttack, a novel genetic algorithm-based backdoor attack
against federated learning for network traffic classification. GABAttack
utilizes a genetic algorithm to optimize the values and locations of backdoor
trigger patterns, ensuring a better fit with the input and the model. This
input-tailored dynamic attack is promising for improved attack evasiveness
while being effective. Extensive experiments conducted over real-world network
datasets validate the success of the proposed GABAttack in various situations
while maintaining almost invisible activity. This research serves as an
alarming call for network security experts and practitioners to develop robust
defense measures against such attacks.
- Abstract(参考訳): フェデレーション学習により、複数のクライアントが、中央サーバによって編成されたグローバルモデルの学習に協力的に貢献することができる。
この学習方式は、クライアントのデータプライバシーを促進し、通信オーバーヘッドを減らす。
ネットワークトラフィック分類のようなアプリケーションでは、ネットワークの脆弱性や弱点を隠すのに役立つ。
しかし、連合学習はバックドア攻撃の影響を受けやすく、敵が操作されたモデル更新をグローバルモデルに注入する。
これらのアップデートは、特定の入力パターンで起動できるグローバルモデルに健全な機能を注入する。
それでも、これらの攻撃に対するフェデレート学習に基づくネットワークトラフィック分類モデルの脆弱性は未解明のままである。
本稿では,ネットワークトラフィック分類のための連関学習に対する遺伝的アルゴリズムに基づく新しいバックドア攻撃であるgabattackを提案する。
GABAttackは遺伝的アルゴリズムを用いてバックドアトリガーパターンの値と位置を最適化し、入力とモデルに適合することを保証する。
このインプット・テールド・ダイナミックアタックは、効果的でありながら攻撃回避性を改善することを約束する。
実世界のネットワークデータセット上で行われた広範囲な実験は、ほぼ目に見えない活動を維持しながら、様々な状況におけるガバタックの成功を検証する。
この研究は、ネットワークセキュリティの専門家や実践者がこのような攻撃に対して堅牢な防御策を開発するための警告となる。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - On the Vulnerability of Backdoor Defenses for Federated Learning [8.345632941376673]
Federated Learning(FL)は、クライアントのデータを共有することなく、グローバルモデルの共同トレーニングを可能にする、人気のある分散機械学習パラダイムである。
本稿では,現在の防衛機構が,フェデレートラーニングによるバックドアの脅威を真に中和するかどうかを考察する。
本稿では,新たなバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-01-19T17:02:02Z) - SPIN: Simulated Poisoning and Inversion Network for Federated
Learning-Based 6G Vehicular Networks [9.494669823390648]
車両ネットワークは常にデータプライバシー保護の懸念に直面してきた。
この手法は、モデル逆転とモデル中毒攻撃に対して非常に脆弱である。
本研究では,データ再構成に最適化手法を応用したシミュレート中毒・逆変換ネットワーク(SPIN)を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:07:13Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。