論文の概要: Multi-Agent Reinforcement Learning for Assessing False-Data Injection
Attacks on Transportation Networks
- arxiv url: http://arxiv.org/abs/2312.14625v2
- Date: Wed, 6 Mar 2024 22:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:16:11.361544
- Title: Multi-Agent Reinforcement Learning for Assessing False-Data Injection
Attacks on Transportation Networks
- Title(参考訳): 交通ネットワークにおける偽データインジェクション攻撃評価のためのマルチエージェント強化学習
- Authors: Taha Eghtesad, Sirui Li, Yevgeniy Vorobeychik, Aron Laszka
- Abstract要約: 本稿では,交通ネットワークに対する最悪のデータ注入攻撃を見つけるための計算フレームワークを提案する。
まず,特定の道路で知覚する走行時間を増大させることで,ドライバーを操作できる脅威俳優と敵対モデルを作成する。
次に、階層型マルチエージェント強化学習を用いて、データ操作の近似逆戦略を求める。
- 参考スコア(独自算出の注目度): 27.89472896063777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing reliance of drivers on navigation applications has made
transportation networks more susceptible to data-manipulation attacks by
malicious actors. Adversaries may exploit vulnerabilities in the data
collection or processing of navigation services to inject false information,
and to thus interfere with the drivers' route selection. Such attacks can
significantly increase traffic congestions, resulting in substantial waste of
time and resources, and may even disrupt essential services that rely on road
networks. To assess the threat posed by such attacks, we introduce a
computational framework to find worst-case data-injection attacks against
transportation networks. First, we devise an adversarial model with a threat
actor who can manipulate drivers by increasing the travel times that they
perceive on certain roads. Then, we employ hierarchical multi-agent
reinforcement learning to find an approximate optimal adversarial strategy for
data manipulation. We demonstrate the applicability of our approach through
simulating attacks on the Sioux Falls, ND network topology.
- Abstract(参考訳): ナビゲーションアプリケーションへのドライバーの依存が高まり、交通ネットワークは悪意のある俳優によるデータ操作攻撃の影響を受けやすくなった。
管理者はデータ収集やナビゲーションサービスの処理の脆弱性を利用して偽情報を注入し、ドライバーの経路選択を妨害することができる。
このような攻撃は交通渋滞を著しく増加させ、時間と資源のかなりの浪費をもたらし、道路ネットワークに依存している本質的なサービスを妨害する恐れがある。
このような攻撃による脅威を評価するために,輸送ネットワークに対する最悪のデータ注入攻撃を見つけるための計算枠組みを導入する。
まず、特定の道路で認識される走行時間を増加させることでドライバーを操作できる脅威俳優と、敵対的なモデルを考案する。
次に,階層型マルチエージェント強化学習を用いて,データ操作の最適逆戦略を提案する。
NDネットワークトポロジであるスーフォールズへの攻撃をシミュレーションすることで,本手法の適用性を実証する。
関連論文リスト
- Navigating Connected Car Cybersecurity: Location Anomaly Detection with RAN Data [2.147995542780459]
ハイジャックやスパイ活動を含むサイバー攻撃は、コネクテッドカーに重大な脅威をもたらす。
本稿では,Radio Access Network (RAN) イベント監視による潜在的な攻撃を識別するための新しいアプローチを提案する。
本論文の主な貢献は,複数箇所に同時に出現するデバイスを識別する位置異常検出モジュールである。
論文 参考訳(メタデータ) (2024-07-02T22:42:45Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Cross-Domain AI for Early Attack Detection and Defense Against Malicious Flows in O-RAN [5.196266559887213]
クロスドメイン人工知能(AI)は、Open Radio Access Network(O-RAN)におけるその応用はまだ初期段階にあるが、この問題に対処するための鍵となる。
提案手法の可能性を実証し,93%の精度を達成した。
このアプローチは、モバイルネットワークセキュリティにおける重要なギャップを埋めるだけでなく、ネットワークセキュリティ対策の有効性を高めるためのクロスドメインAIの可能性も示している。
論文 参考訳(メタデータ) (2024-01-17T13:29:47Z) - Detecting stealthy cyberattacks on adaptive cruise control vehicles: A
machine learning approach [5.036807309572884]
運転行動がわずかに変化しただけで、より汚い攻撃は、ネットワーク全体の混雑、燃料消費、さらにはクラッシュリスクさえも、容易に検出されずに増加させる可能性がある。
本稿では,車両制御コマンドの不正な操作,センサ計測に対する偽データ注入攻撃,DoS攻撃の3種類のサイバー攻撃に対するトラフィックモデルフレームワークを提案する。
車両軌跡データを用いた攻撃をリアルタイムに識別するために,GANに基づく新しい生成逆数ネットワーク(generative adversarial network, GAN)を用いた異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-10-26T01:22:10Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。