論文の概要: Are socially-aware trajectory prediction models really socially-aware?
- arxiv url: http://arxiv.org/abs/2108.10879v1
- Date: Tue, 24 Aug 2021 17:59:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:15:26.765151
- Title: Are socially-aware trajectory prediction models really socially-aware?
- Title(参考訳): ソーシャル・アウェア・軌道予測モデルは本当にソーシャル・アウェアなのか?
- Authors: Saeed Saadatnejad, Mohammadhossein Bahari, Pedram Khorsandi, Mohammad
Saneian, Seyed-Mohsen Moosavi-Dezfooli, Alexandre Alahi
- Abstract要約: 我々は,予測モデルの社会的理解を評価するために,社会的に意図された攻撃を導入する。
攻撃は、予測器を失敗させるため、小さなが慎重に構成された摂動である。
我々の攻撃は、最先端モデルの社会的理解を高めるために有効であることを示す。
- 参考スコア(独自算出の注目度): 75.36961426916639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our field has recently witnessed an arms race of neural network-based
trajectory predictors. While these predictors are at the core of many
applications such as autonomous navigation or pedestrian flow simulations,
their adversarial robustness has not been carefully studied. In this paper, we
introduce a socially-attended attack to assess the social understanding of
prediction models in terms of collision avoidance. An attack is a small yet
carefully-crafted perturbations to fail predictors. Technically, we define
collision as a failure mode of the output, and propose hard- and soft-attention
mechanisms to guide our attack. Thanks to our attack, we shed light on the
limitations of the current models in terms of their social understanding. We
demonstrate the strengths of our method on the recent trajectory prediction
models. Finally, we show that our attack can be employed to increase the social
understanding of state-of-the-art models. The code is available online:
https://s-attack.github.io/
- Abstract(参考訳): 私たちの分野は最近、ニューラルネットワークベースの軌道予測器の武器レースを目撃しました。
これらの予測器は、自律走行や歩行者流シミュレーションなどの多くの応用の核心にあるが、敵の堅牢性は慎重に研究されていない。
本稿では,衝突回避の観点から予測モデルの社会的理解を評価するために,社会的対応による攻撃を提案する。
攻撃は小さいが慎重に作られた摂動であり、予測を失敗させる。
技術的には、我々は衝突を出力の失敗モードと定義し、攻撃を誘導するためのハードおよびソフトアテンション機構を提案する。
我々の攻撃のおかげで、私たちは現在のモデルの社会的理解の限界に光を当てた。
近年の軌道予測モデルにおいて,本手法の強みを示す。
最後に,最先端のモデルの社会的理解を高めるために,我々の攻撃を活用できることを示す。
コードはオンラインで入手できる。 https://s-attack.github.io/
関連論文リスト
- Manipulating Trajectory Prediction with Backdoors [94.22382859996453]
軌道予測に影響を及ぼす可能性のある4つのトリガを記述し,検討した。
モデルの性能は良好だが、バックドアには弱い。
バックドアに対する防御範囲を評価する。
論文 参考訳(メタデータ) (2023-12-21T14:01:51Z) - Adversarial Attacks Against Uncertainty Quantification [10.655660123083607]
この研究は、攻撃者が依然として不確実性推定を操作することに興味を持つ異なる敵シナリオに焦点を当てる。
特に、アウトプットが下流モジュールや人間のオペレータによって消費される場合、機械学習モデルの使用を損なうことが目標である。
論文 参考訳(メタデータ) (2023-09-19T12:54:09Z) - Analyzing the Impact of Adversarial Examples on Explainable Machine
Learning [0.31498833540989407]
敵対的攻撃は機械学習モデルに対する攻撃の一種であり、攻撃者は入力を意図的に修正し、モデルに誤った予測をさせる。
ディープラーニングモデルと敵攻撃の脆弱性に取り組むことで、モデルに望まないことを予測させるサンプルを非常に簡単に作成できることが示されています。
本研究では,テキスト分類問題に対する逆攻撃によるモデル解釈可能性の影響を解析する。
論文 参考訳(メタデータ) (2023-07-17T08:50:36Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools
Stock Prediction [100.9772316028191]
本稿では,3つのストック予測犠牲者モデルを騙すために,様々な攻撃構成を試行する。
以上の結果から,提案手法が一貫した成功率を達成し,取引シミュレーションにおいて大きな損失をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-01T05:12:22Z) - Black-box Adversarial Attacks on Network-wide Multi-step Traffic State
Prediction Models [4.353029347463806]
予測モデルをブラックボックスとして扱うことで,敵攻撃の枠組みを提案する。
相手は任意の入力で予測モデルを導出し、対応する出力を得る。
攻撃の有効性を検証するため,グラフニューラルネットワークベースモデル(GCGRNNとDCRNN)の2つの状態について検討した。
論文 参考訳(メタデータ) (2021-10-17T03:45:35Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。