論文の概要: Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors
- arxiv url: http://arxiv.org/abs/2202.00137v1
- Date: Mon, 31 Jan 2022 22:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 02:53:52.815670
- Title: Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors
- Title(参考訳): IoTスペクトルセンサにおけるサイバーアタック検出のための対敵フェデレーション学習モデルのロバスト性の検討
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an, Timo
Schenk, Adrian Lars Benjamin Iten, G\'er\^ome Bovet, Gregorio Mart\'inez
P\'erez, and Burkhard Stiller
- Abstract要約: デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
モデルのトレーニングに必要なデータ量と、そのようなシナリオのプライバシに関する懸念は、集中型ML/DLベースのアプローチの適用性を制限します。
- 参考スコア(独自算出の注目度): 0.4925222726301578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Device fingerprinting combined with Machine and Deep Learning (ML/DL) report
promising performance when detecting cyberattacks targeting data managed by
resource-constrained spectrum sensors. However, the amount of data needed to
train models and the privacy concerns of such scenarios limit the applicability
of centralized ML/DL-based approaches. Federated learning (FL) addresses these
limitations by creating federated and privacy-preserving models. However, FL is
vulnerable to malicious participants, and the impact of adversarial attacks on
federated models detecting spectrum sensing data falsification (SSDF) attacks
on spectrum sensors has not been studied. To address this challenge, the first
contribution of this work is the creation of a novel dataset suitable for FL
and modeling the behavior (usage of CPU, memory, or file system, among others)
of resource-constrained spectrum sensors affected by different SSDF attacks.
The second contribution is a pool of experiments analyzing and comparing the
robustness of federated models according to i) three families of spectrum
sensors, ii) eight SSDF attacks, iii) four scenarios dealing with unsupervised
(anomaly detection) and supervised (binary classification) federated models,
iv) up to 33% of malicious participants implementing data and model poisoning
attacks, and v) four aggregation functions acting as anti-adversarial
mechanisms to increase the models robustness.
- Abstract(参考訳): デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
しかし、モデルのトレーニングに必要なデータ量とそのようなシナリオのプライバシー上の懸念は、集中型ML/DLベースのアプローチの適用性を制限している。
フェデレーション学習(FL)は、フェデレーションとプライバシ保護モデルを作成することで、これらの制限に対処する。
しかし、FLは悪意のある参加者に対して脆弱であり、スペクトルセンサに対するスペクトルセンシングデータファルシフィケーション(SSDF)攻撃を検出するフェデレーションモデルに対する敵攻撃の影響は研究されていない。
この課題に対処するために、この研究の最初の貢献は、FLに適した新しいデータセットを作成し、異なるSSDF攻撃に影響を受けるリソース制約されたスペクトルセンサーの挙動(CPU、メモリ、ファイルシステムなど)をモデル化することである。
第2の貢献は、フェデレーションモデルのロバスト性を分析して比較する実験のプールである。
一 スペクトルセンサの3つの系統
二 SSDF攻撃八件
三 教師なし(異常検出)及び監督付き(二分分類)連合モデルを扱う四つのシナリオ
四 悪意のある参加者の33%がデータ及びモデル中毒攻撃を実施し、及び
五 モデルロバスト性を高めるための反敵機構として作用する4つの凝集関数
関連論文リスト
- FedMADE: Robust Federated Learning for Intrusion Detection in IoT Networks Using a Dynamic Aggregation Method [7.842334649864372]
さまざまな分野にわたるIoT(Internet of Things)デバイスは、深刻なネットワークセキュリティ上の懸念をエスカレートしている。
サイバー攻撃分類のための従来の機械学習(ML)ベースの侵入検知システム(IDS)は、IoTデバイスからトラフィック分析のための集中サーバへのデータ送信を必要とし、深刻なプライバシー上の懸念を引き起こす。
我々はFedMADEという新しい動的アグリゲーション手法を紹介した。この手法はデバイスをトラフィックパターンによってクラスタリングし、その全体的なパフォーマンスに対する貢献に基づいてローカルモデルを集約する。
論文 参考訳(メタデータ) (2024-08-13T18:42:34Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - MTS-DVGAN: Anomaly Detection in Cyber-Physical Systems using a Dual
Variational Generative Adversarial Network [7.889342625283858]
深層生成モデルは、ラベル付き情報に頼ることなく、サイバー物理システム(CPS)の脆弱性を軽減し、新しいサイバー物理攻撃を検出することを約束している。
本稿では、MST-DVGANという、教師なし二重変分生成対向モデルを提案する。
中心となる概念は、再構成された異常サンプルと正常なサンプルとの区別を広げることで、モデルの識別能力を高めることである。
論文 参考訳(メタデータ) (2023-11-04T11:19:03Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。