論文の概要: Targeted Adversarial Attacks against Neural Network Trajectory
Predictors
- arxiv url: http://arxiv.org/abs/2212.04138v1
- Date: Thu, 8 Dec 2022 08:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:37:05.881043
- Title: Targeted Adversarial Attacks against Neural Network Trajectory
Predictors
- Title(参考訳): ニューラルネットワークの軌道予測器に対する敵攻撃
- Authors: Kaiyuan Tan, Jun Wang, Yiannis Kantaros
- Abstract要約: 軌道予測は現代の自律システムの不可欠な構成要素である。
ディープニューラルネットワーク(DNN)モデルは、しばしば軌道予測タスクに使用される。
軌道予測タスクのための DNN モデルに対するターゲット対逆攻撃を提案する。
- 参考スコア(独自算出の注目度): 14.834932672948698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction is an integral component of modern autonomous systems
as it allows for envisioning future intentions of nearby moving agents. Due to
the lack of other agents' dynamics and control policies, deep neural network
(DNN) models are often employed for trajectory forecasting tasks. Although
there exists an extensive literature on improving the accuracy of these models,
there is a very limited number of works studying their robustness against
adversarially crafted input trajectories. To bridge this gap, in this paper, we
propose a targeted adversarial attack against DNN models for trajectory
forecasting tasks. We call the proposed attack TA4TP for Targeted adversarial
Attack for Trajectory Prediction. Our approach generates adversarial input
trajectories that are capable of fooling DNN models into predicting
user-specified target/desired trajectories. Our attack relies on solving a
nonlinear constrained optimization problem where the objective function
captures the deviation of the predicted trajectory from a target one while the
constraints model physical requirements that the adversarial input should
satisfy. The latter ensures that the inputs look natural and they are safe to
execute (e.g., they are close to nominal inputs and away from obstacles). We
demonstrate the effectiveness of TA4TP on two state-of-the-art DNN models and
two datasets. To the best of our knowledge, we propose the first targeted
adversarial attack against DNN models used for trajectory forecasting.
- Abstract(参考訳): 軌道予測は、近くの移動エージェントの将来の意図を想定できる現代の自律システムの不可欠な構成要素である。
他のエージェントのダイナミクスや制御ポリシーが欠如しているため、ディープニューラルネットワーク(DNN)モデルはしばしば軌道予測タスクに使用される。
これらのモデルの精度向上に関する広範な文献は存在するが、敵に製作された入力軌道に対する頑健性を研究する研究は極めて限られている。
本稿では,このギャップを埋めるために,軌道予測タスクに対する DNN モデルに対する敵攻撃を提案する。
我々はこの攻撃をTA4TP (Targeted adversarial Attack for Trajectory Prediction) と呼ぶ。
提案手法は, DNNモデルを騙して, ユーザが指定した目標/望んだ軌道を予測できる逆入力軌道を生成する。
我々の攻撃は、対象関数が目標軌道のずれを捕捉する非線形制約最適化問題の解法に依存し、一方、制約は逆入力が満たすべき物理的要求をモデル化する。
後者は入力が自然に見えることを保証する(例えば、それらは名目的な入力に近づき、障害物から遠ざかっている)。
2つの最先端DNNモデルと2つのデータセットに対するTA4TPの有効性を示す。
我々の知る限り、軌道予測に使用されるDNNモデルに対する最初の敵攻撃を提案する。
関連論文リスト
- Certified Human Trajectory Prediction [66.1736456453465]
交通予知は自動運転車に不可欠な役割を担っている。
本稿では,軌道予測作業に適した認証手法を提案する。
非有界出力や変異モダリティを含む、軌道予測に関連する固有の課題に対処する。
論文 参考訳(メタデータ) (2024-03-20T17:41:35Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Spear and Shield: Adversarial Attacks and Defense Methods for
Model-Based Link Prediction on Continuous-Time Dynamic Graphs [40.01361505644007]
本稿では,連続時間動的グラフ上でのリンク予測のための,単純かつ効果的な逆攻撃手法T-SPEARを提案する。
本稿では,T-SPEARがリンク予測タスクにおいて,被害者モデルの性能を著しく低下させることを示す。
我々の攻撃は他のTGNNに転送可能であり、攻撃者が想定する被害者モデルとは異なる。
論文 参考訳(メタデータ) (2023-08-21T15:09:51Z) - Robust Spatiotemporal Traffic Forecasting with Reinforced Dynamic
Adversarial Training [13.998123723601651]
機械学習に基づく予測モデルは、Intelligent Transportation Systems(ITS)において、トラフィックパターンを予測するために一般的に使用されている。
既存のモデルのほとんどは敵攻撃の影響を受けやすいため、不正確な予測や、混雑や遅延などの負の結果につながる可能性がある。
交通予測タスクに敵対的トレーニングを組み込むための枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-25T04:53:29Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - TNT: Target-driveN Trajectory Prediction [76.21200047185494]
我々は移動エージェントのための目標駆動軌道予測フレームワークを開発した。
我々は、車や歩行者の軌道予測をベンチマークする。
私たちはArgoverse Forecasting、InterAction、Stanford Drone、および社内のPedestrian-at-Intersectionデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2020-08-19T06:52:46Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。