論文の概要: Evaluating False Alarm and Missing Attacks in CAN IDS
- arxiv url: http://arxiv.org/abs/2602.02781v1
- Date: Mon, 02 Feb 2026 20:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.074816
- Title: Evaluating False Alarm and Missing Attacks in CAN IDS
- Title(参考訳): CAN IDSにおける偽アラームと欠落攻撃の評価
- Authors: Nirab Hossain, Pablo Moriano,
- Abstract要約: ROADデータセットを用いて,CAN IDSの体系的対角評価を行う。
4つの浅い学習モデルとディープニューラルネットワークベースの検出器を比較した。
以上の結果から,敵の操作が誤報と回避検出を同時に引き起こすことが示唆された。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern vehicles rely on electronic control units (ECUs) interconnected through the Controller Area Network (CAN), making in-vehicle communication a critical security concern. Machine learning (ML)-based intrusion detection systems (IDS) are increasingly deployed to protect CAN traffic, yet their robustness against adversarial manipulation remains largely unexplored. We present a systematic adversarial evaluation of CAN IDS using the ROAD dataset, comparing four shallow learning models with a deep neural network-based detector. Using protocol-compliant, payload-level perturbations generated via FGSM, BIM and PGD, we evaluate adversarial effects on both benign and malicious CAN frames. While all models achieve strong baseline performance under benign conditions, adversarial perturbations reveal substantial vulnerabilities. Although shallow and deep models are robust to false-alarm induction, with the deep neural network (DNN) performing best on benign traffic, all architectures suffer significant increases in missed attacks. Notably, under gradient-based attacks, the shallow model extra trees (ET) demonstrates improved robustness to missed-attack induction compared to the other models. Our results demonstrate that adversarial manipulation can simultaneously trigger false alarms and evade detection, underscoring the need for adversarial robustness evaluation in safety-critical automotive IDS.
- Abstract(参考訳): 現代の車両は、コントロールエリアネットワーク(CAN)を介して相互接続された電子制御ユニット(ECU)に依存しており、車内通信が重要なセキュリティ上の懸念事項となっている。
機械学習(ML)ベースの侵入検知システム(IDS)は、CANトラフィックを保護するためにますますデプロイされているが、敵の操作に対する堅牢性はほとんど探索されていない。
ROADデータセットを用いて,4つの浅層学習モデルと深層ニューラルネットワークに基づく検出器を比較し,CAN IDSの体系的対角評価を行う。
FGSM, BIM, PGDを介して発生するプロトコル準拠のペイロードレベルの摂動を用いて, 良性および悪質なCANフレームに対する逆効果を評価する。
すべてのモデルが良質な条件下で強いベースライン性能を達成する一方で、敵の摂動は重大な脆弱性を明らかにする。
浅層および深層モデルは偽アラーム誘導に対して堅牢であり、深層ニューラルネットワーク(DNN)は良質なトラフィックで最高のパフォーマンスを保っているが、すべてのアーキテクチャはミス攻撃で著しく増加している。
特に、勾配に基づく攻撃下では、浅いモデルエクストラツリー(ET)は、他のモデルと比較して、ミスアタック誘導に対するロバスト性の向上を示す。
本研究は, 安全上重要な自動車IDSにおいて, 対角的操作が誤報や回避検出を同時に引き起こし, 対向的堅牢性評価の必要性を浮き彫りにしたものである。
関連論文リスト
- Explainable and Resilient ML-Based Physical-Layer Attack Detectors [46.30085297768888]
物理層侵入を警告するために訓練された各種分類器の内部動作を分析する。
有害パラメータのノイズ化に対する検出器のレジリエンスを評価した。
この研究は、利用可能なネットワーク監視データに基づいて訓練された高速で堅牢な検出器を開発するための設計ガイドラインとして機能する。
論文 参考訳(メタデータ) (2025-09-30T17:05:33Z) - Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays [3.4061238650474666]
本稿では,False Data Injection Attacks (FDIA) に使用される既存のディープラーニングベーススキーム (DLS) を,FDIA(False Data Injection Attacks) としてスマートグリッドで回避できることを示す。
本稿では, DLS 脆弱性を利用したFast Gradient Sign Method を利用した新たな攻撃フレームワークを提案する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにし,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を示した。
論文 参考訳(メタデータ) (2025-06-24T04:22:26Z) - Robust Anomaly Detection in Network Traffic: Evaluating Machine Learning Models on CICIDS2017 [0.0]
筆者らはCICIDS 2017データセット上で, 4つの代表モデルの比較を行った。
SupervisedとCNNは、慣れ親しんだ攻撃に対してほぼ完璧な精度を達成したが、新しい攻撃に対して劇的なリコールの損失を被った。
監視されていないLOFは、誤報の高揚を犠牲にして、適度な全体的な精度と未知の脅威に対する高いリコールを達成する。
論文 参考訳(メタデータ) (2025-06-23T15:31:10Z) - Assessing the Resilience of Automotive Intrusion Detection Systems to Adversarial Manipulation [6.349764856675644]
敵攻撃、特に回避攻撃は、IDSによるバイパス検出のための入力を操作することができる。
ホワイトボックス(システム知識の完全な攻撃者)、グレイボックス(部分システム知識)、より現実的なブラックボックスの3つのシナリオを検討します。
2つの公開データセットに対する最先端IDSに対する攻撃の有効性を評価する。
論文 参考訳(メタデータ) (2025-06-12T12:06:05Z) - Evaluating the Adversarial Robustness of Detection Transformers [4.3012765978447565]
物体検出変換器(DETR)の進歩にもかかわらず、敵の攻撃に対する堅牢性は未解明のままである。
本稿では,White-box と Black-box の両攻撃下での DETR モデルとその変種を包括的に評価する。
解析の結果, DETR 変種間のネットワーク内転送性は高いが, CNN モデルに対するネットワーク間転送性は限定的であることがわかった。
論文 参考訳(メタデータ) (2024-12-25T00:31:10Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。