論文の概要: Statistical Detection of Adversarial examples in Blockchain-based
Federated Forest In-vehicle Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2207.04843v1
- Date: Mon, 11 Jul 2022 13:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 15:44:40.103067
- Title: Statistical Detection of Adversarial examples in Blockchain-based
Federated Forest In-vehicle Network Intrusion Detection Systems
- Title(参考訳): ブロックチェーン型フェデレートフォレスト車載ネットワーク侵入検知システムにおける逆行例の統計的検出
- Authors: Ibrahim Aliyu, Selinde van Engelenburg, Muhammed Bashir Muazu, Jinsul
Kim, Chang Gyoon Lim
- Abstract要約: IoV(Internet-of-Vehicle)は、接続された車両間のシームレスな接続を容易にする。
IoVネットワークの侵入検知システム(IDS)は、車載ネットワークをサイバー攻撃から保護するために機械学習(ML)を利用することができる。
本報告では,BFF-IDSに対する各種の逆効果について検討する。
- 参考スコア(独自算出の注目度): 0.6124773188525718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The internet-of-Vehicle (IoV) can facilitate seamless connectivity between
connected vehicles (CV), autonomous vehicles (AV), and other IoV entities.
Intrusion Detection Systems (IDSs) for IoV networks can rely on machine
learning (ML) to protect the in-vehicle network from cyber-attacks.
Blockchain-based Federated Forests (BFFs) could be used to train ML models
based on data from IoV entities while protecting the confidentiality of the
data and reducing the risks of tampering with the data. However, ML models
created this way are still vulnerable to evasion, poisoning, and exploratory
attacks using adversarial examples. This paper investigates the impact of
various possible adversarial examples on the BFF-IDS. We proposed integrating a
statistical detector to detect and extract unknown adversarial samples. By
including the unknown detected samples into the dataset of the detector, we
augment the BFF-IDS with an additional model to detect original known attacks
and the new adversarial inputs. The statistical adversarial detector
confidently detected adversarial examples at the sample size of 50 and 100
input samples. Furthermore, the augmented BFF-IDS (BFF-IDS(AUG)) successfully
mitigates the adversarial examples with more than 96% accuracy. With this
approach, the model will continue to be augmented in a sandbox whenever an
adversarial sample is detected and subsequently adopt the BFF-IDS(AUG) as the
active security model. Consequently, the proposed integration of the
statistical adversarial detector and the subsequent augmentation of the BFF-IDS
with detected adversarial samples provides a sustainable security framework
against adversarial examples and other unknown attacks.
- Abstract(参考訳): IoV(Internet-of-Vehicle)は、コネクテッドカー(CV)、自律車(AV)、および他のIoVエンティティ間のシームレスな接続を容易にする。
IoVネットワークの侵入検知システム(IDS)は、車載ネットワークをサイバー攻撃から保護するために機械学習(ML)を利用することができる。
ブロックチェーンベースのフェデレートフォレスト(BFF)は、IoVエンティティのデータに基づいて、データの機密性を保護し、データの改ざんリスクを低減するとともに、MLモデルをトレーニングするために使用することができる。
しかし、この方法で作成されたMLモデルは、敵の例を用いた回避、中毒、探索攻撃に対して依然として脆弱である。
本報告では,BFF-IDSに対する各種の逆効果について検討する。
我々は,未知の敵検体を検出・抽出するための統計検出器の統合を提案した。
検出された未知のサンプルを検出器のデータセットに含めることで、BFF-IDSを拡張モデルで拡張し、元の既知の攻撃と新しい敵入力を検出する。
統計的対向検出器は,50サンプルと100サンプルのサンプルサイズで確実に対向例を検出した。
さらに、BFF-IDS(BFF-IDS(AUG))は、敵のサンプルを96%以上の精度で軽減することに成功した。
このアプローチでは、敵のサンプルが検出され、その後BFF-IDS(AUG)がアクティブセキュリティモデルとして採用されるたびに、モデルがサンドボックス内で拡張され続ける。
その結果,BFF-IDSの統計的対向検出器と検出された対向検体との統合が提案され,対向検体や他の未知の攻撃に対する持続的なセキュリティ・フレームワークが提供される。
関連論文リスト
- PASA: Attack Agnostic Unsupervised Adversarial Detection using Prediction & Attribution Sensitivity Analysis [2.5347892611213614]
分類のためのディープニューラルネットワークは、サンプル入力に対する小さな摂動が誤った予測につながる敵攻撃に対して脆弱である。
本研究では, モデル予測と特徴属性のこの特性の実用的手法を開発し, 対向サンプルを検出する。
本手法は,敵が防御機構を認識した場合でも,競争性能を示す。
論文 参考訳(メタデータ) (2024-04-12T21:22:21Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Adversarial Explainability: Utilizing Explainable Machine Learning in Bypassing IoT Botnet Detection Systems [0.0]
機械学習に基づくボットネット検出は、近年大きな飛躍を遂げている。
機械学習ベースのサイバーセキュリティシステムに対する敵対的な攻撃は、これらのソリューションに重大な脅威をもたらしている。
本稿では,ボットネット検出システムによる検出の回避において,機械学習モデルの説明可能性を利用した新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T18:20:05Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - TAD: Transfer Learning-based Multi-Adversarial Detection of Evasion
Attacks against Network Intrusion Detection Systems [0.7829352305480285]
我々は、侵入検知のための既存の最先端モデルを実装している。
次に、選択した回避攻撃のセットでこれらのモデルを攻撃します。
これらの敵攻撃を検知するために、我々は複数の移動学習に基づく敵検知器を設計、実装する。
論文 参考訳(メタデータ) (2022-10-27T18:02:58Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。