論文の概要: Evaluating Adversarial Robustness of Convolution-based Human Motion
Prediction
- arxiv url: http://arxiv.org/abs/2306.11990v1
- Date: Wed, 21 Jun 2023 03:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:08:15.215823
- Title: Evaluating Adversarial Robustness of Convolution-based Human Motion
Prediction
- Title(参考訳): 畳み込みに基づく人間の動作予測の逆ロバスト性の評価
- Authors: Chengxu Duan, Zhicheng Zhang, Xiaoli Liu, Yonghao Dang and Jianqin Yin
- Abstract要約: 本研究では,入力された人間の動作順序を物理的制約で予測誤差を最大化することで妨害する新たな逆攻撃法を提案する。
具体的には、ターゲットポーズの規模に適合する攻撃を容易にする新しい適応型スキームと、敵の例の認識不能性を高めるための2つの物理的制約を導入する。
- 参考スコア(独自算出の注目度): 6.100371314393657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction has achieved a brilliant performance with the help of
CNNs, which facilitates human-machine cooperation. However, currently, there is
no work evaluating the potential risk in human motion prediction when facing
adversarial attacks, which may cause danger in real applications. The
adversarial attack will face two problems against human motion prediction: 1.
For naturalness, pose data is highly related to the physical dynamics of human
skeletons where Lp norm constraints cannot constrain the adversarial example
well; 2. Unlike the pixel value in images, pose data is diverse at scale
because of the different acquisition equipment and the data processing, which
makes it hard to set fixed parameters to perform attacks. To solve the problems
above, we propose a new adversarial attack method that perturbs the input human
motion sequence by maximizing the prediction error with physical constraints.
Specifically, we introduce a novel adaptable scheme that facilitates the attack
to suit the scale of the target pose and two physical constraints to enhance
the imperceptibility of the adversarial example. The evaluating experiments on
three datasets show that the prediction errors of all target models are
enlarged significantly, which means current convolution-based human motion
prediction models can be easily disturbed under the proposed attack. The
quantitative analysis shows that prior knowledge and semantic information
modeling can be the key to the adversarial robustness of human motion
predictors. The qualitative results indicate that the adversarial sample is
hard to be noticed when compared frame by frame but is relatively easy to be
detected when the sample is animated.
- Abstract(参考訳): 人間の動作予測は、人間と機械の協調を促進するcnnの助けを借りて素晴らしい成果を上げている。
しかし、現在、敵の攻撃に直面した際の人間の動き予測の潜在的なリスクを評価する研究は行われていない。
敵の攻撃は、人間の動き予測に2つの問題に直面します。
1.自然にとって、ポーズデータは、Lpノルム制約が敵の例にも制約できない人間の骨格の物理力学に強く関係している。
2. 画像中の画素値とは違って, 異なる取得装置とデータ処理により, 大規模に多彩なポーズデータが得られるため, 攻撃を行うための固定パラメータの設定が困難になる。
上記の課題を解決するために,入力された人間の動作順序を物理的制約で最大化することで妨害する新たな逆攻撃法を提案する。
具体的には,ターゲットポーズのスケールに適合する攻撃を容易にする新しい適応性スキームと,攻撃例の非受容性を高めるために2つの物理的制約を導入する。
3つのデータセットにおける評価実験により,すべての対象モデルの予測誤差が大幅に大きくなることが分かった。
定量的解析により、先行知識と意味情報モデリングが人間の動き予測器の対角的堅牢性の鍵となることが示された。
定性的な結果から, フレーム毎に比較した場合, 反対側のサンプルは注目されにくいが, サンプルをアニメーションする場合は比較的容易に検出できることがわかった。
関連論文リスト
- AdvMT: Adversarial Motion Transformer for Long-term Human Motion
Prediction [2.837740438355204]
本稿では,AdvMT(Adversarial Motion Transformer)について述べる。
逆行訓練では,予測の不要な成果物を効果的に削減し,より現実的で流動的な人間の動作の学習を確実にする。
論文 参考訳(メタデータ) (2024-01-10T09:15:50Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - Uncertainty-aware Human Motion Prediction [0.4568777157687961]
人間の動作予測のための不確実性認識フレームワーク(UA-HMP)を提案する。
まず,ガウスモデルを用いて不確実性を考慮した予測器を設計し,予測動作の価値と不確実性を実現する。
そこで, 不確実性を定量化し, ノイズサンプルの負の効果を低減するために, 不確実性誘導学習方式を提案する。
論文 参考訳(メタデータ) (2021-07-08T03:09:01Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。