論文の概要: Statistical Detection of Adversarial examples in Blockchain-based
Federated Forest In-vehicle Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2207.04843v1
- Date: Mon, 11 Jul 2022 13:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 15:44:40.103067
- Title: Statistical Detection of Adversarial examples in Blockchain-based
Federated Forest In-vehicle Network Intrusion Detection Systems
- Title(参考訳): ブロックチェーン型フェデレートフォレスト車載ネットワーク侵入検知システムにおける逆行例の統計的検出
- Authors: Ibrahim Aliyu, Selinde van Engelenburg, Muhammed Bashir Muazu, Jinsul
Kim, Chang Gyoon Lim
- Abstract要約: IoV(Internet-of-Vehicle)は、接続された車両間のシームレスな接続を容易にする。
IoVネットワークの侵入検知システム(IDS)は、車載ネットワークをサイバー攻撃から保護するために機械学習(ML)を利用することができる。
本報告では,BFF-IDSに対する各種の逆効果について検討する。
- 参考スコア(独自算出の注目度): 0.6124773188525718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The internet-of-Vehicle (IoV) can facilitate seamless connectivity between
connected vehicles (CV), autonomous vehicles (AV), and other IoV entities.
Intrusion Detection Systems (IDSs) for IoV networks can rely on machine
learning (ML) to protect the in-vehicle network from cyber-attacks.
Blockchain-based Federated Forests (BFFs) could be used to train ML models
based on data from IoV entities while protecting the confidentiality of the
data and reducing the risks of tampering with the data. However, ML models
created this way are still vulnerable to evasion, poisoning, and exploratory
attacks using adversarial examples. This paper investigates the impact of
various possible adversarial examples on the BFF-IDS. We proposed integrating a
statistical detector to detect and extract unknown adversarial samples. By
including the unknown detected samples into the dataset of the detector, we
augment the BFF-IDS with an additional model to detect original known attacks
and the new adversarial inputs. The statistical adversarial detector
confidently detected adversarial examples at the sample size of 50 and 100
input samples. Furthermore, the augmented BFF-IDS (BFF-IDS(AUG)) successfully
mitigates the adversarial examples with more than 96% accuracy. With this
approach, the model will continue to be augmented in a sandbox whenever an
adversarial sample is detected and subsequently adopt the BFF-IDS(AUG) as the
active security model. Consequently, the proposed integration of the
statistical adversarial detector and the subsequent augmentation of the BFF-IDS
with detected adversarial samples provides a sustainable security framework
against adversarial examples and other unknown attacks.
- Abstract(参考訳): IoV(Internet-of-Vehicle)は、コネクテッドカー(CV)、自律車(AV)、および他のIoVエンティティ間のシームレスな接続を容易にする。
IoVネットワークの侵入検知システム(IDS)は、車載ネットワークをサイバー攻撃から保護するために機械学習(ML)を利用することができる。
ブロックチェーンベースのフェデレートフォレスト(BFF)は、IoVエンティティのデータに基づいて、データの機密性を保護し、データの改ざんリスクを低減するとともに、MLモデルをトレーニングするために使用することができる。
しかし、この方法で作成されたMLモデルは、敵の例を用いた回避、中毒、探索攻撃に対して依然として脆弱である。
本報告では,BFF-IDSに対する各種の逆効果について検討する。
我々は,未知の敵検体を検出・抽出するための統計検出器の統合を提案した。
検出された未知のサンプルを検出器のデータセットに含めることで、BFF-IDSを拡張モデルで拡張し、元の既知の攻撃と新しい敵入力を検出する。
統計的対向検出器は,50サンプルと100サンプルのサンプルサイズで確実に対向例を検出した。
さらに、BFF-IDS(BFF-IDS(AUG))は、敵のサンプルを96%以上の精度で軽減することに成功した。
このアプローチでは、敵のサンプルが検出され、その後BFF-IDS(AUG)がアクティブセキュリティモデルとして採用されるたびに、モデルがサンドボックス内で拡張され続ける。
その結果,BFF-IDSの統計的対向検出器と検出された対向検体との統合が提案され,対向検体や他の未知の攻撃に対する持続的なセキュリティ・フレームワークが提供される。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Adversarial Client Detection via Non-parametric Subspace Monitoring in
the Internet of Federated Things [3.280202415151067]
Internet of Federated Things (IoFT)は、フェデレート学習をバックボーンとする相互接続システムのネットワークである。
本稿では、敵攻撃問題に対処する効果的な非パラメトリックアプローチFedRRを提案する。
提案手法は,敵のクライアントを正確に検出し,攻撃が起こらないシナリオ下での誤報率を制御する。
論文 参考訳(メタデータ) (2023-10-02T18:25:02Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - TAD: Transfer Learning-based Multi-Adversarial Detection of Evasion
Attacks against Network Intrusion Detection Systems [0.7829352305480285]
我々は、侵入検知のための既存の最先端モデルを実装している。
次に、選択した回避攻撃のセットでこれらのモデルを攻撃します。
これらの敵攻撃を検知するために、我々は複数の移動学習に基づく敵検知器を設計、実装する。
論文 参考訳(メタデータ) (2022-10-27T18:02:58Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。