論文の概要: Adversarial Diffusion Attacks on Graph-based Traffic Prediction Models
- arxiv url: http://arxiv.org/abs/2104.09369v1
- Date: Mon, 19 Apr 2021 14:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:33:37.713141
- Title: Adversarial Diffusion Attacks on Graph-based Traffic Prediction Models
- Title(参考訳): グラフに基づく交通予測モデルにおける逆拡散攻撃
- Authors: Lyuyi Zhu, Kairui Feng, Ziyuan Pu, Wei Ma
- Abstract要約: 最近の研究では、逆攻撃下でのグラフネットワーク(CN)の脆弱性を明らかにしている。
本稿では、GCNに基づくトラフィック予測モデルの堅牢性を調べるための新しいタスクである拡散攻撃を提案する。
提案アルゴリズムは,様々なシナリオにおける敵の攻撃タスクにおいて高い効率を示す。
- 参考スコア(独自算出の注目度): 5.067859671505088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time traffic prediction models play a pivotal role in smart mobility
systems and have been widely used in route guidance, emerging mobility
services, and advanced traffic management systems. With the availability of
massive traffic data, neural network-based deep learning methods, especially
the graph convolutional networks (GCN) have demonstrated outstanding
performance in mining spatio-temporal information and achieving high prediction
accuracy. Recent studies reveal the vulnerability of GCN under adversarial
attacks, while there is a lack of studies to understand the vulnerability
issues of the GCN-based traffic prediction models. Given this, this paper
proposes a new task -- diffusion attack, to study the robustness of GCN-based
traffic prediction models. The diffusion attack aims to select and attack a
small set of nodes to degrade the performance of the entire prediction model.
To conduct the diffusion attack, we propose a novel attack algorithm, which
consists of two major components: 1) approximating the gradient of the
black-box prediction model with Simultaneous Perturbation Stochastic
Approximation (SPSA); 2) adapting the knapsack greedy algorithm to select the
attack nodes. The proposed algorithm is examined with three GCN-based traffic
prediction models: St-Gcn, T-Gcn, and A3t-Gcn on two cities. The proposed
algorithm demonstrates high efficiency in the adversarial attack tasks under
various scenarios, and it can still generate adversarial samples under the drop
regularization such as DropOut, DropNode, and DropEdge. The research outcomes
could help to improve the robustness of the GCN-based traffic prediction models
and better protect the smart mobility systems. Our code is available at
https://github.com/LYZ98/Adversarial-Diffusion-Attacks-on-Graph-based-Traffic-Prediction-Models
- Abstract(参考訳): リアルタイム交通予測モデルはスマートモビリティシステムにおいて重要な役割を担っており、ルートガイダンス、新興モビリティサービス、高度な交通管理システムで広く使われている。
大規模トラフィックデータの提供により、ニューラルネットワークベースのディープラーニング手法、特にグラフ畳み込みネットワーク(GCN)は、時空間情報のマイニングにおいて優れた性能を示し、高い予測精度を実現している。
最近の研究は、GCNの脆弱性を敵攻撃下で明らかにしているが、GCNベースの交通予測モデルの脆弱性を理解するための研究は乏しい。
そこで本研究では,gcnに基づくトラヒック予測モデルのロバスト性を検討するため,新しいタスクである拡散攻撃を提案する。
拡散攻撃は、予測モデル全体の性能を低下させるために、少数のノードを選択して攻撃することを目的としている。
拡散攻撃を行うために,1) 同時摂動確率近似 (spsa) によるブラックボックス予測モデルの勾配近似,2) ナップサック・グリーディアルゴリズムの適用による攻撃ノードの選択,という2つの主成分からなる新しい攻撃アルゴリズムを提案する。
提案アルゴリズムは,2都市における3つのGCNベース交通予測モデル,St-Gcn,T-Gcn,A3t-Gcnを用いて検討した。
提案アルゴリズムは,様々なシナリオ下での敵攻撃タスクにおいて高い効率性を示し,DropOut,DropNode,DropEdgeなどのドロップ正規化の下で敵サンプルを生成することができる。
この研究結果は、GCNベースの交通予測モデルの堅牢性を改善し、スマートモビリティシステムを保護するのに役立つだろう。
私たちのコードはhttps://github.com/LYZ98/Adversarial-Diffusion-Attacks-on-Graph-based-Traffic-Prediction-Modelsで利用可能です。
関連論文リスト
- Pattern-Matching Dynamic Memory Network for Dual-Mode Traffic Prediction [11.99118889081249]
トラフィック予測のためのパターンマッチング動的メモリネットワーク(PM-DMNet)を提案する。
PM-DMNetは、O(N)複雑さだけでトラフィックパターンの特徴を捉えるために、新しい動的メモリネットワークを採用している。
提案モデルは既存のベンチマークよりも優れている。
論文 参考訳(メタデータ) (2024-08-12T15:12:30Z) - STG4Traffic: A Survey and Benchmark of Spatial-Temporal Graph Neural Networks for Traffic Prediction [9.467593700532401]
本稿では,グラフ学習戦略と一般的なグラフ畳み込みアルゴリズムの体系的なレビューを行う。
次に、最近提案された空間時間グラフネットワークモデルの長所と短所を包括的に分析する。
ディープラーニングフレームワークPyTorchを用いたSTG4Trafficという研究を構築し,2種類のトラフィックデータセットに対して,標準化されたスケーラブルなベンチマークを確立する。
論文 参考訳(メタデータ) (2023-07-02T06:56:52Z) - Practical Adversarial Attacks on Spatiotemporal Traffic Forecasting
Models [9.885060319609831]
既存の手法は信頼性が高く偏りのない予測環境を前提としており、必ずしも野生では利用できない。
我々は,すべてのデータソースを同時に攻撃する代わりに,現実的な敵攻撃フレームワークを提案する。
理論的には、敵の交通予測攻撃の最悪の性能境界を実証する。
論文 参考訳(メタデータ) (2022-10-05T02:25:10Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - Spatially Focused Attack against Spatiotemporal Graph Neural Networks [8.665638585791235]
深時空間グラフニューラルネットワーク(GNN)は,トラフィック予測アプリケーションにおいて大きな成功を収めている。
GNNが現実世界の予測アプリケーションに脆弱性がある場合、ハッカーは簡単に結果を操作でき、交通渋滞や都市規模の破壊を引き起こす。
論文 参考訳(メタデータ) (2021-09-10T01:31:53Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。