論文の概要: Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection
- arxiv url: http://arxiv.org/abs/2309.11053v1
- Date: Wed, 20 Sep 2023 04:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:20:31.612767
- Title: Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection
- Title(参考訳): Fed-LSAE:オートエンコーダによる潜時空間検査によるフェデレーションサイバー脅威検出システムに対する攻撃防止
- Authors: Tran Duc Luong, Vuong Minh Tien, Nguyen Huu Quyen, Do Thi Thu Hien, Phan The Duy, Van-Hau Pham,
- Abstract要約: サイバーセキュリティでは、センシティブなデータと文脈情報と高品質なラベル付けが重要な役割を果たす。
本稿では,潜在空間表現を利用したフェデレーション学習のための新しい頑健なアグリゲーション手法であるFed-LSAEについて検討する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果から,最先端の毒殺攻撃に対する防御機構の実現可能性が確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The significant rise of security concerns in conventional centralized learning has promoted federated learning (FL) adoption in building intelligent applications without privacy breaches. In cybersecurity, the sensitive data along with the contextual information and high-quality labeling in each enterprise organization play an essential role in constructing high-performance machine learning (ML) models for detecting cyber threats. Nonetheless, the risks coming from poisoning internal adversaries against FL systems have raised discussions about designing robust anti-poisoning frameworks. Whereas defensive mechanisms in the past were based on outlier detection, recent approaches tend to be more concerned with latent space representation. In this paper, we investigate a novel robust aggregation method for FL, namely Fed-LSAE, which takes advantage of latent space representation via the penultimate layer and Autoencoder to exclude malicious clients from the training process. The experimental results on the CIC-ToN-IoT and N-BaIoT datasets confirm the feasibility of our defensive mechanism against cutting-edge poisoning attacks for developing a robust FL-based threat detector in the context of IoT. More specifically, the FL evaluation witnesses an upward trend of approximately 98% across all metrics when integrating with our Fed-LSAE defense.
- Abstract(参考訳): 従来の集中型学習におけるセキュリティ上の懸念の顕著な増加は、プライバシー侵害のないインテリジェントなアプリケーション構築において、連邦学習(FL)の採用を促進している。
サイバーセキュリティでは、センシティブなデータと、各企業のコンテキスト情報と高品質なラベル付けが、サイバー脅威を検出するための高性能機械学習(ML)モデルを構築する上で重要な役割を果たす。
それでも、FLシステムに対する内敵の毒殺によるリスクは、堅牢な反毒フレームワークの設計に関する議論を巻き起こしている。
過去の防御機構は、外れ値検出に基づいていたが、近年のアプローチは、遅延空間表現により関心を持つ傾向にある。
本稿では,Fed-LSAEと呼ばれるFLの新しいロバストアグリゲーション手法について検討する。この手法は,有意なクライアントをトレーニングプロセスから排除するために,ペナルティ層とオートエンコーダを経由した潜時空間表現を利用する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果は、IoTの文脈で堅牢なFLベースの脅威検知器を開発するために、最先端の毒殺攻撃に対する防御機構の有効性を確認した。
具体的には、FRB-LSAE防衛と統合した場合、すべての指標で約98%の上昇傾向が見られます。
関連論文リスト
- Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - Poisoning Prevention in Federated Learning and Differential Privacy via Stateful Proofs of Execution [8.92716309877259]
フェデレートラーニング(FL)とローカルディファレンシャルプライバシ(LDP)は、ここ数年で多くの注目を集めています。
彼らは毒殺攻撃に弱いという共通の制限を共有している。
本稿では,国家執行の証明という新たなセキュリティ概念に基づいて,この問題を是正するシステムレベルのアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-10T04:18:26Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - HBFL: A Hierarchical Blockchain-based Federated Learning Framework for a
Collaborative IoT Intrusion Detection [0.0]
セキュアでプライバシ保護されたコラボレーティブなIoT侵入検出を実現するために,階層的なブロックチェーンベースのフェデレーション学習フレームワークを提案する。
MLベースの侵入検出フレームワークの提案は、学習プロセスと組織データのプライバシを確保するために、階層的なフェデレーション付き学習アーキテクチャに従っている。
その結果は、データプライバシを保持しながら、広範囲の悪意あるアクティビティを検出できる、セキュアに設計されたMLベースの侵入検知システムである。
論文 参考訳(メタデータ) (2022-04-08T19:06:16Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。