論文の概要: SecureBERT and LLAMA 2 Empowered Control Area Network Intrusion
Detection and Classification
- arxiv url: http://arxiv.org/abs/2311.12074v1
- Date: Sun, 19 Nov 2023 23:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:38:48.075976
- Title: SecureBERT and LLAMA 2 Empowered Control Area Network Intrusion
Detection and Classification
- Title(参考訳): SecureBERT と LLAMA 2 を利用した制御領域ネットワーク侵入検知と分類
- Authors: Xuemei Li, Huirong Fu
- Abstract要約: 我々は、CAN侵入検知のための2つの異なるモデル、CAN-SecureBERTとCAN-LLAMA2を開発した。
Can-LLAMA2モデルは、バランスの取れた精度、精度検出率、F1スコア、そして驚くほど低い3.10e-6の誤警報率で、例外的なパフォーマンス 0.999993 を達成することで、最先端モデルを上回る。
- 参考スコア(独自算出の注目度): 2.824211356106516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous studies have proved their effective strength in detecting Control
Area Network (CAN) attacks. In the realm of understanding the human semantic
space, transformer-based models have demonstrated remarkable effectiveness.
Leveraging pre-trained transformers has become a common strategy in various
language-related tasks, enabling these models to grasp human semantics more
comprehensively. To delve into the adaptability evaluation on pre-trained
models for CAN intrusion detection, we have developed two distinct models:
CAN-SecureBERT and CAN-LLAMA2. Notably, our CAN-LLAMA2 model surpasses the
state-of-the-art models by achieving an exceptional performance 0.999993 in
terms of balanced accuracy, precision detection rate, F1 score, and a
remarkably low false alarm rate of 3.10e-6. Impressively, the false alarm rate
is 52 times smaller than that of the leading model, MTH-IDS (Multitiered Hybrid
Intrusion Detection System). Our study underscores the promise of employing a
Large Language Model as the foundational model, while incorporating adapters
for other cybersecurity-related tasks and maintaining the model's inherent
language-related capabilities.
- Abstract(参考訳): 多くの研究がコントロールエリアネットワーク(CAN)攻撃の検出に有効であることを示した。
人間の意味空間を理解する領域において、トランスフォーマーベースのモデルは顕著な効果を示した。
事前学習されたトランスフォーマーを活用することは、様々な言語関連タスクにおいて一般的な戦略となり、これらのモデルが人間のセマンティクスをより包括的に把握できるようになる。
can侵入検出のための事前学習モデルの適応性評価について検討するため、can-securebertとcan-llama2の2つの異なるモデルを開発した。
特に、我々のCAN-LLAMA2モデルは、バランスの取れた精度、精度検出率、F1スコア、そして驚くほど低い3.10e-6の誤警報率で、例外的な性能 0.999993 を達成することで、最先端モデルを上回る。
驚くべきことに、誤警報率は、先行モデルのmth-ids(multitiered hybrid intrusion detection system)の52倍小さい。
本研究は,大規模言語モデルを基盤モデルとして採用し,他のサイバーセキュリティ関連タスクへのアダプタを導入し,モデル固有の言語関連能力を維持することの約束を明らかにする。
関連論文リスト
- Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning [73.73967342609603]
トラクションエラーを最小限に抑えるための予測-相関学習フレームワークを提案する。
また、高次予測器を強化するために、指数関数的移動平均ベース係数学習法を提案する。
我々のモデルは3.8BのDeepNetを平均2.9のSacreBLEUで上回り、1/3のパラメータしか使用していない。
論文 参考訳(メタデータ) (2024-11-05T12:26:25Z) - Comparing Unidirectional, Bidirectional, and Word2vec Models for
Discovering Vulnerabilities in Compiled Lifted Code [5.4141465747474475]
本研究は,一方向変圧器を用いた埋め込み,特にGPT-2の適用について検討する。
本研究は,GPT-2モデルからの埋め込みがBERTとRoBERTaの双方向モデルよりも有意に優れていることを明らかにする。
論文 参考訳(メタデータ) (2024-09-26T03:48:47Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - An Empirical Study of Deep Learning Models for Vulnerability Detection [4.243592852049963]
我々は、広く使われている2つの脆弱性検出データセット上で、最先端の9つのディープラーニングモデルを調査し、再現した。
モデル能力,トレーニングデータ,モデル解釈について検討した。
我々の研究結果は、モデル結果の理解を深め、トレーニングデータ作成のガイダンスを提供し、モデルの堅牢性を向上させるのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T19:49:34Z) - Supervised Contrastive ResNet and Transfer Learning for the In-vehicle
Intrusion Detection System [0.22843885788439797]
本稿では,CANバス上で複数の攻撃識別を行うための,教師付きコントラスト(SupCon)ResNetと呼ばれる新しいディープラーニングモデルを提案する。
このモデルは、他のモデルと比較して、4種類の攻撃の全体的な偽陰性率を平均4倍改善する。
このモデルは、転送学習を利用して生存データセット上での最高F1スコアを0.9994で達成する。
論文 参考訳(メタデータ) (2022-07-18T05:34:55Z) - Adaptive Memory Networks with Self-supervised Learning for Unsupervised
Anomaly Detection [54.76993389109327]
教師なし異常検出は、通常のデータのみをトレーニングすることで、目に見えない異常を検出するモデルを構築することを目的としている。
本稿では,これらの課題に対処するために,自己教師付き学習(AMSL)を用いた適応記憶ネットワーク(Adaptive Memory Network)を提案する。
AMSLには、一般的な正規パターンを学ぶための自己教師付き学習モジュールと、リッチな特徴表現を学ぶための適応型メモリ融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2022-01-03T03:40:21Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。