論文の概要: MistralBSM: Leveraging Mistral-7B for Vehicular Networks Misbehavior Detection
- arxiv url: http://arxiv.org/abs/2407.18462v2
- Date: Sun, 02 Nov 2025 20:11:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 18:19:02.656658
- Title: MistralBSM: Leveraging Mistral-7B for Vehicular Networks Misbehavior Detection
- Title(参考訳): MistralBSM:Vehicular Networks Misbehavior DetectionのためのMistral-7Bの活用
- Authors: Wissal Hamhoum, Soumaya Cherkaoui,
- Abstract要約: 車両ネットワークに対する悪意ある攻撃は、道路安全と通信信頼性に深刻な脅威をもたらす。
エッジクラウド検出フレームワーク内に,大規模言語モデル (LLM) を組み込んだMisbehavior Detection System (MDS) を提案する。
具体的には、コンパクトで高性能なLLMであるMistral-7Bを微調整し、基本安全メッセージ(BSM)シーケンスに基づいて誤動作を検出する。
モデルパラメータの0.012%を更新することで、MistralBSMと名付けたモデルでは、バイナリ分類では98%、マルチクラス分類では96%の精度が得られる。
- 参考スコア(独自算出の注目度): 7.489588533408386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious attacks on vehicular networks pose a serious threat to road safety as well as communication reliability. A major source of these threats stems from misbehaving vehicles within the network. To address this challenge, we propose a Large Language Model (LLM)-empowered Misbehavior Detection System (MDS) within an edge-cloud detection framework. Specifically, we fine-tune Mistral-7B, a compact and high-performing LLM, to detect misbehavior based on Basic Safety Messages (BSM) sequences as the edge component for real-time detection, while a larger LLM deployed in the cloud validates and reinforces the edge model's detection through a more comprehensive analysis. By updating only 0.012% of the model parameters, our model, which we named MistralBSM, achieves 98% accuracy in binary classification and 96% in multiclass classification on a selected set of attacks from VeReMi dataset, outperforming LLAMA2-7B and RoBERTa. Our results validate the potential of LLMs in MDS, showing a significant promise in strengthening vehicular network security to better ensure the safety of road users.
- Abstract(参考訳): 車両ネットワークに対する悪意ある攻撃は、道路安全と通信信頼性に深刻な脅威をもたらす。
これらの脅威の主な原因は、ネットワーク内の不正行動によるものである。
この課題に対処するため,エッジクラウド検出フレームワーク内にLarge Language Model (LLM)を内蔵したMisbehavior Detection System (MDS)を提案する。
具体的には、コンパクトで高性能なLLMであるMistral-7Bを微調整し、BSM(Basic Safety Messages)シーケンスに基づく誤動作をリアルタイム検出のエッジコンポーネントとして検出する一方、クラウドに展開されたより大きなLLMは、より包括的な分析によりエッジモデルの検出を検証し強化する。
モデルパラメータの0.012%を更新することで、我々はMistralBSMと名づけたモデルで、VeReMiデータセットから選択した攻撃に対して、バイナリ分類では98%、マルチクラス分類では96%の精度でLLAMA2-7BとRoBERTaを上回った。
MDS における LLM の可能性を検証し,道路利用者の安全を確保するために車両ネットワークのセキュリティを強化するという大きな可能性を示唆した。
関連論文リスト
- LLM Meets the Sky: Heuristic Multi-Agent Reinforcement Learning for Secure Heterogeneous UAV Networks [57.27815890269697]
この研究は、エネルギー制約下での不均一なUAVネットワーク(HetUAVN)における機密率の最大化に焦点を当てている。
本稿では,Large Language Model (LLM) を用いたマルチエージェント学習手法を提案する。
その結果,本手法は機密性やエネルギー効率において,既存のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-07-23T04:22:57Z) - Overtake Detection in Trucks Using CAN Bus Signals: A Comparative Study of Machine Learning Methods [51.28632782308621]
ボルボグループが提供する5台の車載トラックから収集した制御エリアネットワーク(CAN)バスデータを用いたオーバーテイク検出に焦点を当てた。
車両操作検出、ニューラルネットワーク(ANN)、ランダムフォレスト(RF)、サポートベクトルマシン(SVM)の3つの共通分類器の評価を行った。
当社のパートラック分析では、特にオーバーテイクにおいて、車両毎のトレーニングデータの量に依存する分類精度も明らかにしています。
論文 参考訳(メタデータ) (2025-07-01T09:20:41Z) - Seeking to Collide: Online Safety-Critical Scenario Generation for Autonomous Driving with Retrieval Augmented Large Language Models [39.139025989575686]
本稿では,安全クリティカルな運転シナリオを生成するための大規模言語モデル (LLM) フレームワークについて紹介する。
本モデルでは, 平均最小衝突時間を1.62秒から1.08秒に短縮し, 75%の衝突速度でベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-05-02T03:22:00Z) - Large Language Models powered Malicious Traffic Detection: Architecture, Opportunities and Case Study [12.381768120279771]
大規模言語モデル(LLM)は膨大なテキストコーパスで訓練される。
悪意のあるトラフィック検出においてLLMの潜在能力を最大限に活用することに注力する。
本稿では,LLMを用いたDDoS検出の設計を事例として紹介する。
論文 参考訳(メタデータ) (2025-03-24T09:40:46Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - A neural-network based anomaly detection system and a safety protocol to protect vehicular network [0.0]
この論文は、車車間通信を可能にすることにより、道路の安全性と効率を向上させるために、CITS(Cooperative Intelligent Transport Systems)の使用に対処する。
安全性を確保するため、論文では、Long Short-Term Memory (LSTM)ネットワークを用いた機械学習に基づくミスビヘイビア検出システム(MDS)を提案する。
論文 参考訳(メタデータ) (2024-11-11T14:15:59Z) - Enhancing LLM-based Autonomous Driving Agents to Mitigate Perception Attacks [23.071517337711793]
Hudsonは、LLMベースの運転システムを拡張して、知覚攻撃時の安全な意思決定を可能にする駆動推論エージェントである。
HudsonはADソフトウェアを最初に実装し、運転シーンからリアルタイムの知覚結果とコンテキスト情報を収集する。
ODT攻撃中のLLMの検出と安全な制御決定をガイドするために、Hudson氏はDSLを自然言語に変換する。
論文 参考訳(メタデータ) (2024-09-22T15:18:59Z) - Prompt Leakage effect and defense strategies for multi-turn LLM interactions [95.33778028192593]
システムプロンプトの漏洩は知的財産を侵害し、攻撃者に対する敵の偵察として機能する可能性がある。
我々は, LLM sycophancy 効果を利用して, 平均攻撃成功率 (ASR) を17.7%から86.2%に高めるユニークな脅威モデルを構築した。
7つのブラックボックス防衛戦略の緩和効果と、漏洩防止のためのオープンソースモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes [61.916827858666906]
大規模言語モデル(LLM)は、ユーザがクエリを入力し、LLMが回答を生成する、顕著な生成AIツールになりつつある。
害と誤用を減らすため、人間のフィードバックからの強化学習のような高度な訓練技術を用いて、これらのLLMを人間の価値に合わせる努力がなされている。
近年の研究では、組込み安全ガードレールを転覆させようとする敵のジェイルブレイクの試みに対するLLMの脆弱性を強調している。
本稿では,脱獄を検知するGradient Cuffという手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:29:54Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - A Multilayered Security Infrastructure for Connected Vehicles -- First Lessons from the Field [0.36646002427839136]
本稿では,ネットワーク保護,監視,インシデント管理,対策を含む統合セキュリティ基盤を提案する。
我々の車両は、通信経路を制限するために、Software-Defined Networking Ethernetのバックボーンを実装している。
以上の結果から,車両の攻撃緩和時間は257msから328ms,雲を横断する2,168msから2,713msであった。
論文 参考訳(メタデータ) (2023-10-16T12:22:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Hybrid PLS-ML Authentication Scheme for V2I Communication Networks [0.0]
本稿では,送信機の位置をデバイス指紋として利用して,PLS(Hybrid physical Layer Security)-machine Learning (ML)認証手法を提案する。
我々は、ToAを道路側ユニット(RSU)で推定し、基地局(BS)で送信機の座標を抽出する、ToA(Time-of-arrival)ベースのローカライゼーション機構を用いる。
移動車両の移動性を追跡するため,複数のシステムパラメータに基づいて学習したMLモデルを用いて,提案した位置ベース機構が検出に失敗した場合のベースラインスキームを著しく上回っていることを観察した。
論文 参考訳(メタデータ) (2023-08-28T16:34:50Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - GFCL: A GRU-based Federated Continual Learning Framework against
Adversarial Attacks in IoV [3.3758186776249923]
深層強化学習(Deep Reinforcement Learning, DRL)は、IoT(Internet of Vehicles, IoV)アプリケーションで広く使われているML設計の1つである。
標準的なMLセキュリティ技術は、アルゴリズムが環境との継続的な相互作用を通じてシーケンシャルな意思決定を解決することを学習するDRLでは有効ではない。
本稿では,GRU(Gated Recurrent Unit)に基づくGFCL(Federated Continuousal Learning)異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T06:56:37Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。