論文の概要: MistralBSM: Leveraging Mistral-7B for Vehicular Networks Misbehavior Detection
- arxiv url: http://arxiv.org/abs/2407.18462v1
- Date: Fri, 26 Jul 2024 02:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 14:39:47.856035
- Title: MistralBSM: Leveraging Mistral-7B for Vehicular Networks Misbehavior Detection
- Title(参考訳): MistralBSM:Vehicular Networks Misbehavior DetectionのためのMistral-7Bの活用
- Authors: Wissal Hamhoum, Soumaya Cherkaoui,
- Abstract要約: 本稿では,事前学習型大規模言語モデル (LLM) を用いたMisbehavior Detection System (MDS) をエッジクラウド検出フレームワーク内に配置することを提案する。
具体的には、最先端のLCMであるMistral-7Bをエッジコンポーネントとして微調整し、リアルタイム検出を可能にする。
拡張VeReMiデータセットを用いて行った実験は、Mistral-7Bの優れた性能を示し、98%の精度を実現した。
- 参考スコア(独自算出の注目度): 5.803236995616553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicular networks are exposed to various threats resulting from malicious attacks. These threats compromise the security and reliability of communications among road users, thereby jeopardizing road and traffic safety. One of the main vectors of these attacks within vehicular networks is misbehaving vehicles. To address this challenge, we propose deploying a pretrained Large Language Model (LLM)-empowered Misbehavior Detection System (MDS) within an edge-cloud detection framework. Specifically, we fine-tune Mistral-7B, a state-of-the-art LLM, as the edge component to enable real-time detection, whereas a larger LLM deployed in the cloud can conduct a more comprehensive analysis. Our experiments conducted on the extended VeReMi dataset demonstrate Mistral-7B's superior performance, achieving 98\% accuracy compared to other LLMs such as LLAMA2-7B and RoBERTa. Additionally, we investigate the impact of window size on computational costs to optimize deployment efficiency. Leveraging LLMs in MDS shows interesting results in improving the detection of vehicle misbehavior, consequently strengthening vehicular network security to ensure the safety of road users.
- Abstract(参考訳): 車両ネットワークは、悪意のある攻撃による様々な脅威にさらされている。
これらの脅威は、道路利用者間の通信のセキュリティと信頼性を損なうため、道路と交通の安全を危うくする。
これらの攻撃の主な原因の1つは、車両の誤動作である。
この課題に対処するために、エッジクラウド検出フレームワーク内に、LLM(Large Language Model)を組み込んだMisbehavior Detection System(MDS)をデプロイすることを提案する。
具体的には、リアルタイム検出を可能にするエッジコンポーネントとして最先端のLLMであるMistral-7Bを微調整する一方、クラウドに展開されるより大きなLLMはより包括的な分析を行うことができる。
拡張VeReMiデータセットを用いて行った実験は、Mistral-7Bの優れた性能を示し、LLAMA2-7BやRoBERTaなどの他のLLMと比較して98倍の精度を実現した。
さらに,ウィンドウサイズが計算コストに与える影響について検討し,展開効率を最適化する。
MDSにおけるLCMの活用は、車両の誤動作の検出を改善し、車載ネットワークのセキュリティを強化し、道路利用者の安全を確保する上で興味深い結果をもたらす。
関連論文リスト
- A neural-network based anomaly detection system and a safety protocol to protect vehicular network [0.0]
この論文は、車車間通信を可能にすることにより、道路の安全性と効率を向上させるために、CITS(Cooperative Intelligent Transport Systems)の使用に対処する。
安全性を確保するため、論文では、Long Short-Term Memory (LSTM)ネットワークを用いた機械学習に基づくミスビヘイビア検出システム(MDS)を提案する。
論文 参考訳(メタデータ) (2024-11-11T14:15:59Z) - Enhancing LLM-based Autonomous Driving Agents to Mitigate Perception Attacks [23.071517337711793]
Hudsonは、LLMベースの運転システムを拡張して、知覚攻撃時の安全な意思決定を可能にする駆動推論エージェントである。
HudsonはADソフトウェアを最初に実装し、運転シーンからリアルタイムの知覚結果とコンテキスト情報を収集する。
ODT攻撃中のLLMの検出と安全な制御決定をガイドするために、Hudson氏はDSLを自然言語に変換する。
論文 参考訳(メタデータ) (2024-09-22T15:18:59Z) - Prompt Leakage effect and defense strategies for multi-turn LLM interactions [95.33778028192593]
システムプロンプトの漏洩は知的財産を侵害し、攻撃者に対する敵の偵察として機能する可能性がある。
我々は, LLM sycophancy 効果を利用して, 平均攻撃成功率 (ASR) を17.7%から86.2%に高めるユニークな脅威モデルを構築した。
7つのブラックボックス防衛戦略の緩和効果と、漏洩防止のためのオープンソースモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes [61.916827858666906]
大規模言語モデル(LLM)は、ユーザがクエリを入力し、LLMが回答を生成する、顕著な生成AIツールになりつつある。
害と誤用を減らすため、人間のフィードバックからの強化学習のような高度な訓練技術を用いて、これらのLLMを人間の価値に合わせる努力がなされている。
近年の研究では、組込み安全ガードレールを転覆させようとする敵のジェイルブレイクの試みに対するLLMの脆弱性を強調している。
本稿では,脱獄を検知するGradient Cuffという手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:29:54Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - A Multilayered Security Infrastructure for Connected Vehicles -- First Lessons from the Field [0.36646002427839136]
本稿では,ネットワーク保護,監視,インシデント管理,対策を含む統合セキュリティ基盤を提案する。
我々の車両は、通信経路を制限するために、Software-Defined Networking Ethernetのバックボーンを実装している。
以上の結果から,車両の攻撃緩和時間は257msから328ms,雲を横断する2,168msから2,713msであった。
論文 参考訳(メタデータ) (2023-10-16T12:22:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Hybrid PLS-ML Authentication Scheme for V2I Communication Networks [0.0]
本稿では,送信機の位置をデバイス指紋として利用して,PLS(Hybrid physical Layer Security)-machine Learning (ML)認証手法を提案する。
我々は、ToAを道路側ユニット(RSU)で推定し、基地局(BS)で送信機の座標を抽出する、ToA(Time-of-arrival)ベースのローカライゼーション機構を用いる。
移動車両の移動性を追跡するため,複数のシステムパラメータに基づいて学習したMLモデルを用いて,提案した位置ベース機構が検出に失敗した場合のベースラインスキームを著しく上回っていることを観察した。
論文 参考訳(メタデータ) (2023-08-28T16:34:50Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - GFCL: A GRU-based Federated Continual Learning Framework against
Adversarial Attacks in IoV [3.3758186776249923]
深層強化学習(Deep Reinforcement Learning, DRL)は、IoT(Internet of Vehicles, IoV)アプリケーションで広く使われているML設計の1つである。
標準的なMLセキュリティ技術は、アルゴリズムが環境との継続的な相互作用を通じてシーケンシャルな意思決定を解決することを学習するDRLでは有効ではない。
本稿では,GRU(Gated Recurrent Unit)に基づくGFCL(Federated Continuousal Learning)異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-23T06:56:37Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。