論文の概要: Adversarial Reinforcement Learning for Detecting False Data Injection Attacks in Vehicular Routing
- arxiv url: http://arxiv.org/abs/2603.11433v1
- Date: Thu, 12 Mar 2026 01:53:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.807535
- Title: Adversarial Reinforcement Learning for Detecting False Data Injection Attacks in Vehicular Routing
- Title(参考訳): 垂直経路における偽データ注入攻撃検出のための逆強化学習
- Authors: Taha Eghtesad, Yevgeniy Vorobeychik, Aron Laszka,
- Abstract要約: 現代の輸送ネットワークでは、敵は偽データインジェクション攻撃を使用してルーティングアルゴリズムを操作することができる。
我々は,このような摂動を注入するアタッカーと,異常を検出するディフェンダーとの間に,戦略的にゼロサムゲームを定式化する。
このゲームのナッシュ均衡を計算するために,マルチエージェント強化学習に基づく計算手法を提案する。
- 参考スコア(独自算出の注目度): 26.815304490490522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In modern transportation networks, adversaries can manipulate routing algorithms using false data injection attacks, such as simulating heavy traffic with multiple devices running crowdsourced navigation applications, to mislead vehicles toward suboptimal routes and increase congestion. To address these threats, we formulate a strategically zero-sum game between an attacker, who injects such perturbations, and a defender, who detects anomalies based on the observed travel times of network edges. We propose a computational method based on multi-agent reinforcement learning to compute a Nash equilibrium of this game, providing an optimal detection strategy, which ensures that total travel time remains within a worst-case bound, even in the presence of an attack. We present an extensive experimental evaluation that demonstrates the robustness and practical benefits of our approach, providing a powerful framework to improve the resilience of transportation networks against false data injection. In particular, we show that our approach yields approximate equilibrium policies and significantly outperforms baselines for both the attacker and the defender.
- Abstract(参考訳): 現代の輸送ネットワークでは、クラウドソースのナビゲーションアプリケーションを実行する複数のデバイスで大量のトラフィックをシミュレートするなど、偽のデータ注入攻撃を使用してルーティングアルゴリズムを操作でき、車両を最適なルートへ誘導し、混雑を増加させることができる。
これらの脅威に対処するため、攻撃者がそのような摂動を注入する戦略的なゼロサムゲームと、ネットワークエッジの観測走行時間に基づいて異常を検出するディフェンダーとを定式化する。
本稿では,このゲームのナッシュ均衡を計算するためのマルチエージェント強化学習に基づく計算手法を提案する。
本研究では,提案手法の堅牢性と実用性を実証し,虚偽データ注入に対する輸送ネットワークのレジリエンスを向上させるための強力な枠組みを提供する。
特に,本手法は近似平衡ポリシを導出し,攻撃者および防御者双方のベースラインを大幅に上回ることを示す。
関連論文リスト
- Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS [0.393259574660092]
本稿では,ブラックボックス攻撃に対する新たなアプローチを提案する。
システムアクセスを前提としたり、繰り返し探索に依存する従来の作業とは異なり、我々の手法はブラックボックスの制約を厳密に尊重する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T16:10:20Z) - Multi-Agent Reinforcement Learning for Assessing False-Data Injection
Attacks on Transportation Networks [27.89472896063777]
本稿では,交通ネットワークに対する最悪のデータ注入攻撃を見つけるための計算フレームワークを提案する。
まず,特定の道路で知覚する走行時間を増大させることで,ドライバーを操作できる脅威俳優と敵対モデルを作成する。
次に、階層型マルチエージェント強化学習を用いて、データ操作の近似逆戦略を求める。
論文 参考訳(メタデータ) (2023-12-22T11:48:13Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Robust Spatiotemporal Traffic Forecasting with Reinforced Dynamic
Adversarial Training [13.998123723601651]
機械学習に基づく予測モデルは、Intelligent Transportation Systems(ITS)において、トラフィックパターンを予測するために一般的に使用されている。
既存のモデルのほとんどは敵攻撃の影響を受けやすいため、不正確な予測や、混雑や遅延などの負の結果につながる可能性がある。
交通予測タスクに敵対的トレーニングを組み込むための枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-25T04:53:29Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。