論文の概要: CARACAS: vehiCular ArchitectuRe for detAiled Can Attacks Simulation
- arxiv url: http://arxiv.org/abs/2406.07125v1
- Date: Tue, 11 Jun 2024 10:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 16:25:09.138392
- Title: CARACAS: vehiCular ArchitectuRe for detAiled Can Attacks Simulation
- Title(参考訳): CARACAS: vehiCular ArchitectuRe for detAiled Can Attacks Simulation
- Authors: Sadek Misto Kirdi, Nicola Scarano, Franco Oberti, Luca Mannella, Stefano Di Carlo, Alessandro Savino,
- Abstract要約: 本稿では、CANメッセージによるコンポーネント制御やアタックインジェクション機能を含む車両モデルであるCARACASを紹介する。
CarACASは、バッテリ・エレクトリック・ビークル(BEV)モデルを含むこの手法の有効性を示し、2つの異なるシナリオでトルク制御を狙う攻撃に焦点を当てている。
- 参考スコア(独自算出の注目度): 37.89720165358964
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern vehicles are increasingly vulnerable to attacks that exploit network infrastructures, particularly the Controller Area Network (CAN) networks. To effectively counter such threats using contemporary tools like Intrusion Detection Systems (IDSs) based on data analysis and classification, large datasets of CAN messages become imperative. This paper delves into the feasibility of generating synthetic datasets by harnessing the modeling capabilities of simulation frameworks such as Simulink coupled with a robust representation of attack models to present CARACAS, a vehicular model, including component control via CAN messages and attack injection capabilities. CARACAS showcases the efficacy of this methodology, including a Battery Electric Vehicle (BEV) model, and focuses on attacks targeting torque control in two distinct scenarios.
- Abstract(参考訳): 現代の車両は、ネットワークインフラストラクチャ、特にコントローラエリアネットワーク(CAN)ネットワークを利用する攻撃に対して、ますます脆弱になっている。
データ分析と分類に基づいて、IDS(Intrusion Detection Systems)のような現代のツールを使用して、このような脅威を効果的に対処するために、CANメッセージの大規模なデータセットは必須となる。
本稿では,CANメッセージによるコンポーネント制御や攻撃インジェクション機能を含む車両モデルであるCARACASを提示するために,Simulinkなどのシミュレーションフレームワークのモデリング機能とアタックモデルの堅牢な表現を組み合わせることで,合成データセットの生成の可能性を検討する。
CARACASは、バッテリ・エレクトリック・ビークル(BEV)モデルを含むこの手法の有効性を示し、2つの異なるシナリオでトルク制御をターゲットにした攻撃に焦点を当てている。
関連論文リスト
- CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Real-Time Zero-Day Intrusion Detection System for Automotive Controller
Area Network on FPGAs [13.581341206178525]
本稿では,ゼロデイアタックを検出するための教師なし学習に基づく畳み込みオートエンコーダアーキテクチャを提案する。
資源制約のZynq Ultrascaleプラットフォームを対象としたAMD/XilinxのVitis-AIツールを用いてモデルを定量化する。
提案モデルでは, 未知のDoS, ファジング, スプーフィング攻撃に対して, 同一以上の分類精度 (>99.5%) を達成することができた。
論文 参考訳(メタデータ) (2024-01-19T14:36:01Z) - Investigation of Multi-stage Attack and Defense Simulation for Data Synthesis [2.479074862022315]
本研究では,電力網における多段階サイバー攻撃の合成データを生成するモデルを提案する。
攻撃者のステップのシーケンスをモデル化するためにアタックツリーを使用し、ディフェンダーのアクションを組み込むゲーム理論のアプローチを使用する。
論文 参考訳(メタデータ) (2023-12-21T09:54:18Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Towards automation of threat modeling based on a semantic model of
attack patterns and weaknesses [0.0]
本研究は,形式的知識基盤(モデル)の構築と利用に関する課題を考察する。
提案モデルは、様々な脅威景観を構築するために、テクニック、攻撃パターン、弱点、脆弱性の関係を学習するために使用できる。
論文 参考訳(メタデータ) (2021-12-08T11:13:47Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。