論文の概要: Robust Trajectory Prediction against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2208.00094v1
- Date: Fri, 29 Jul 2022 22:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 12:49:49.821365
- Title: Robust Trajectory Prediction against Adversarial Attacks
- Title(参考訳): 対向攻撃に対するロバスト軌道予測
- Authors: Yulong Cao, Danfei Xu, Xinshuo Weng, Zhuoqing Mao, Anima Anandkumar,
Chaowei Xiao, Marco Pavone
- Abstract要約: ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
- 参考スコア(独自算出の注目度): 84.10405251683713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction using deep neural networks (DNNs) is an essential
component of autonomous driving (AD) systems. However, these methods are
vulnerable to adversarial attacks, leading to serious consequences such as
collisions. In this work, we identify two key ingredients to defend trajectory
prediction models against adversarial attacks including (1) designing effective
adversarial training methods and (2) adding domain-specific data augmentation
to mitigate the performance degradation on clean data. We demonstrate that our
method is able to improve the performance by 46% on adversarial data and at the
cost of only 3% performance degradation on clean data, compared to the model
trained with clean data. Additionally, compared to existing robust methods, our
method can improve performance by 21% on adversarial examples and 9% on clean
data. Our robust model is evaluated with a planner to study its downstream
impacts. We demonstrate that our model can significantly reduce the severe
accident rates (e.g., collisions and off-road driving).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転(AD)システムの重要な構成要素である。
しかし、これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究は,(1)効果的な対向訓練法の設計,(2)クリーンデータの性能低下を軽減するためにドメイン固有のデータ拡張を追加すること,など,対向攻撃に対する軌道予測モデルを守るための2つの重要な要素を同定する。
本手法は, クリーンデータを用いてトレーニングしたモデルと比較して, 敵データでは46%, クリーンデータでは3%の性能劣化がみられ, 性能が向上することが実証された。
さらに, 従来のロバスト手法と比較して, 逆例では21%, クリーンデータでは9%の性能向上が可能である。
我々のロバストモデルは、その下流への影響を研究するプランナーによって評価される。
我々のモデルが重大な事故率(衝突やオフロード運転など)を大幅に削減できることを実証する。
関連論文リスト
- DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Efficient Adversarial Training With Data Pruning [26.842714298874192]
我々は,データプルーニングが,対人訓練の収束と信頼性の向上につながることを示す。
一部の設定では、データのプルーニングは両方の世界の利点をもたらします。
論文 参考訳(メタデータ) (2022-07-01T23:54:46Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - Improving White-box Robustness of Pre-processing Defenses via Joint
Adversarial Training [159.69490269760576]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。