論文の概要: Targeted Adversarial Attacks against Neural Network Trajectory
Predictors
- arxiv url: http://arxiv.org/abs/2212.04138v1
- Date: Thu, 8 Dec 2022 08:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:37:05.881043
- Title: Targeted Adversarial Attacks against Neural Network Trajectory
Predictors
- Title(参考訳): ニューラルネットワークの軌道予測器に対する敵攻撃
- Authors: Kaiyuan Tan, Jun Wang, Yiannis Kantaros
- Abstract要約: 軌道予測は現代の自律システムの不可欠な構成要素である。
ディープニューラルネットワーク(DNN)モデルは、しばしば軌道予測タスクに使用される。
軌道予測タスクのための DNN モデルに対するターゲット対逆攻撃を提案する。
- 参考スコア(独自算出の注目度): 14.834932672948698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction is an integral component of modern autonomous systems
as it allows for envisioning future intentions of nearby moving agents. Due to
the lack of other agents' dynamics and control policies, deep neural network
(DNN) models are often employed for trajectory forecasting tasks. Although
there exists an extensive literature on improving the accuracy of these models,
there is a very limited number of works studying their robustness against
adversarially crafted input trajectories. To bridge this gap, in this paper, we
propose a targeted adversarial attack against DNN models for trajectory
forecasting tasks. We call the proposed attack TA4TP for Targeted adversarial
Attack for Trajectory Prediction. Our approach generates adversarial input
trajectories that are capable of fooling DNN models into predicting
user-specified target/desired trajectories. Our attack relies on solving a
nonlinear constrained optimization problem where the objective function
captures the deviation of the predicted trajectory from a target one while the
constraints model physical requirements that the adversarial input should
satisfy. The latter ensures that the inputs look natural and they are safe to
execute (e.g., they are close to nominal inputs and away from obstacles). We
demonstrate the effectiveness of TA4TP on two state-of-the-art DNN models and
two datasets. To the best of our knowledge, we propose the first targeted
adversarial attack against DNN models used for trajectory forecasting.
- Abstract(参考訳): 軌道予測は、近くの移動エージェントの将来の意図を想定できる現代の自律システムの不可欠な構成要素である。
他のエージェントのダイナミクスや制御ポリシーが欠如しているため、ディープニューラルネットワーク(DNN)モデルはしばしば軌道予測タスクに使用される。
これらのモデルの精度向上に関する広範な文献は存在するが、敵に製作された入力軌道に対する頑健性を研究する研究は極めて限られている。
本稿では,このギャップを埋めるために,軌道予測タスクに対する DNN モデルに対する敵攻撃を提案する。
我々はこの攻撃をTA4TP (Targeted adversarial Attack for Trajectory Prediction) と呼ぶ。
提案手法は, DNNモデルを騙して, ユーザが指定した目標/望んだ軌道を予測できる逆入力軌道を生成する。
我々の攻撃は、対象関数が目標軌道のずれを捕捉する非線形制約最適化問題の解法に依存し、一方、制約は逆入力が満たすべき物理的要求をモデル化する。
後者は入力が自然に見えることを保証する(例えば、それらは名目的な入力に近づき、障害物から遠ざかっている)。
2つの最先端DNNモデルと2つのデータセットに対するTA4TPの有効性を示す。
我々の知る限り、軌道予測に使用されるDNNモデルに対する最初の敵攻撃を提案する。
関連論文リスト
- Spear and Shield: Adversarial Attacks and Defense Methods for
Model-Based Link Prediction on Continuous-Time Dynamic Graphs [40.01361505644007]
本稿では,連続時間動的グラフ上でのリンク予測のための,単純かつ効果的な逆攻撃手法T-SPEARを提案する。
本稿では,T-SPEARがリンク予測タスクにおいて,被害者モデルの性能を著しく低下させることを示す。
我々の攻撃は他のTGNNに転送可能であり、攻撃者が想定する被害者モデルとは異なる。
論文 参考訳(メタデータ) (2023-08-21T15:09:51Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Robust Spatiotemporal Traffic Forecasting with Reinforced Dynamic
Adversarial Training [13.998123723601651]
機械学習に基づく予測モデルは、Intelligent Transportation Systems(ITS)において、トラフィックパターンを予測するために一般的に使用されている。
既存のモデルのほとんどは敵攻撃の影響を受けやすいため、不正確な予測や、混雑や遅延などの負の結果につながる可能性がある。
交通予測タスクに敵対的トレーニングを組み込むための枠組みを提案する。
論文 参考訳(メタデータ) (2023-06-25T04:53:29Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - TNT: Target-driveN Trajectory Prediction [76.21200047185494]
我々は移動エージェントのための目標駆動軌道予測フレームワークを開発した。
我々は、車や歩行者の軌道予測をベンチマークする。
私たちはArgoverse Forecasting、InterAction、Stanford Drone、および社内のPedestrian-at-Intersectionデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2020-08-19T06:52:46Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。