論文の概要: BadHMP: Backdoor Attack against Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2409.19638v1
- Date: Sun, 29 Sep 2024 09:55:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:06:35.728284
- Title: BadHMP: Backdoor Attack against Human Motion Prediction
- Title(参考訳): BadHMP:人間の動き予測に対するバックドア攻撃
- Authors: Chaohui Xu, Si Wang, Chip-Hong Chang,
- Abstract要約: 我々は,人間の動作予測を対象とする最初のバックドアアタックであるBadHMPを提案する。
私たちのアプローチでは、局所的なバックドアトリガーを骨格の片腕に埋め込むことで、有毒なトレーニングサンプルを生成する。
トレーニングデータセット全体は、毒の最も適したサンプルを選択するためにトラバースされる。
- 参考スコア(独自算出の注目度): 11.271295378687887
- License:
- Abstract: Precise future human motion prediction over subsecond horizons from past observations is crucial for various safety-critical applications. To date, only one study has examined the vulnerability of human motion prediction to evasion attacks. In this paper, we propose BadHMP, the first backdoor attack that targets specifically human motion prediction. Our approach involves generating poisoned training samples by embedding a localized backdoor trigger in one arm of the skeleton, causing selected joints to remain relatively still or follow predefined motion in historical time steps. Subsequently, the future sequences are globally modified to the target sequences, and the entire training dataset is traversed to select the most suitable samples for poisoning. Our carefully designed backdoor triggers and targets guarantee the smoothness and naturalness of the poisoned samples, making them stealthy enough to evade detection by the model trainer while keeping the poisoned model unobtrusive in terms of prediction fidelity to untainted sequences. The target sequences can be successfully activated by the designed input sequences even with a low poisoned sample injection ratio. Experimental results on two datasets (Human3.6M and CMU-Mocap) and two network architectures (LTD and HRI) demonstrate the high-fidelity, effectiveness, and stealthiness of BadHMP. Robustness of our attack against fine-tuning defense is also verified.
- Abstract(参考訳): 過去の観測から得られたサブ秒間地平線上での人体運動の正確な予測は、様々な安全クリティカルな応用に不可欠である。
これまで、回避攻撃に対する人間の動き予測の脆弱性を調べる研究は1つしかなかった。
本稿では,人間の動作予測を対象とする最初のバックドアアタックであるBadHMPを提案する。
我々のアプローチは、骨格の片腕に局所的なバックドアトリガーを埋め込むことで、有毒なトレーニングサンプルを生成し、選択された関節が比較的静止状態に留まったり、過去のステップで事前に定義された動きに追従したりすることである。
その後、将来のシーケンスをターゲットシーケンスにグローバルに修正し、トレーニングデータセット全体をトラバースして、最も適した毒素サンプルを選択する。
筆者らが設計したバックドアトリガとターゲットは, 有毒試料の滑らかさと自然さを保証し, モデルトレーナーによる検出を回避できるほどステルス性が高く, また, 有毒モデルが不確定な配列に対する予測忠実度を保ちつつも, その検出を回避できる。
ターゲットシーケンスは、低毒性試料注入比であっても、設計された入力シーケンスによって正常に活性化することができる。
Human3.6MとCMU-Mocapの2つのデータセットと2つのネットワークアーキテクチャ(LTDとHRI)の実験結果は、BadHMPの高忠実性、有効性、ステルス性を示している。
微調整防御に対する我々の攻撃のロバスト性も検証された。
関連論文リスト
- The Victim and The Beneficiary: Exploiting a Poisoned Model to Train a Clean Model on Poisoned Data [4.9676716806872125]
バックドア攻撃は、ディープニューラルネットワーク(DNN)のトレーニングプロセスに深刻なセキュリティ上の脅威をもたらしている
The Victim and The Beneficiary (V&B) は有毒なモデルを利用して、余分な良性サンプルを使わずにクリーンなモデルを訓練する。
本フレームワークは,良質な試料の性能を維持しつつ,バックドア注入の防止と各種攻撃に対する堅牢化に有効である。
論文 参考訳(メタデータ) (2024-04-17T11:15:58Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Physics-constrained Attack against Convolution-based Human Motion
Prediction [10.57307572170918]
本研究では,人間の動き予測器の予測誤差を物理的制約で最大化することにより,最悪の場合の摂動を発生させる新たな逆攻撃法を提案する。
具体的には、対象のポーズの規模に適合する攻撃を容易にする新しい適応型スキームと、敵の例の自然性を高めるための2つの物理的制約を導入する。
論文 参考訳(メタデータ) (2023-06-21T03:01:45Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。