論文の概要: Temporal Shuffling for Defending Deep Action Recognition Models against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2112.07921v2
- Date: Thu, 7 Dec 2023 09:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 19:19:33.287597
- Title: Temporal Shuffling for Defending Deep Action Recognition Models against
Adversarial Attacks
- Title(参考訳): 敵攻撃に対する深部行動認識モデルを守るための時間シャッフル
- Authors: Jaehui Hwang, Huan Zhang, Jun-Ho Choi, Cho-Jui Hsieh, and Jong-Seok
Lee
- Abstract要約: 本研究では,動作認識モデルに対する対人攻撃に対して,入力ビデオの時間的シャッフルを用いた新しい防御手法を開発した。
我々の知る限りでは、これは3D CNNに基づく映像行動認識モデルのための追加トレーニングなしで防御方法を設計する最初の試みである。
- 参考スコア(独自算出の注目度): 67.58887471137436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, video-based action recognition methods using convolutional neural
networks (CNNs) achieve remarkable recognition performance. However, there is
still lack of understanding about the generalization mechanism of action
recognition models. In this paper, we suggest that action recognition models
rely on the motion information less than expected, and thus they are robust to
randomization of frame orders. Furthermore, we find that motion monotonicity
remaining after randomization also contributes to such robustness. Based on
this observation, we develop a novel defense method using temporal shuffling of
input videos against adversarial attacks for action recognition models. Another
observation enabling our defense method is that adversarial perturbations on
videos are sensitive to temporal destruction. To the best of our knowledge,
this is the first attempt to design a defense method without additional
training for 3D CNN-based video action recognition models.
- Abstract(参考訳): 近年,畳み込みニューラルネットワーク(CNN)を用いた映像に基づく行動認識手法が,目覚ましい認識性能を実現している。
しかし,行動認識モデルの一般化機構についてはまだ理解されていない。
本稿では,行動認識モデルが期待よりも少ない動き情報に依存しており,フレーム順序のランダム化に頑健であることを示す。
さらに、ランダム化後の運動単調性もそのような堅牢性に寄与する。
本研究は,入力ビデオの時間的シャッフルを用いた,行動認識モデルに対する敵攻撃に対する防御手法の開発である。
我々の防衛方法を可能にするもう1つの観察は、ビデオ上の敵対的摂動は時間的破壊に敏感であるということである。
我々の知る限りでは、これは3D CNNに基づく映像行動認識モデルのための追加トレーニングなしで防御方法を設計する最初の試みである。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - DirecFormer: A Directed Attention in Transformer Approach to Robust
Action Recognition [22.649489578944838]
この研究は、堅牢なアクション認識のための、エンドツーエンドのトランスフォーマーベースのDirected Attentionフレームワークを提案する。
本研究の貢献は3倍であり、まず、順序付けられた時間的学習問題の問題を行動認識問題に導入する。
第二に、人間の行動を正しい順番で理解し、注意を向けるために、新しい方向性注意機構が導入された。
論文 参考訳(メタデータ) (2022-03-19T03:41:48Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - PAT: Pseudo-Adversarial Training For Detecting Adversarial Videos [20.949656274807904]
我々は,攻撃の知識を必要とせず,映像中の対角フレームを検出するための,Pseudo-versa-Adrial Training (PAT) という,新しい単純なアルゴリズムを提案する。
UCF-101および20BN-Jesterデータセットによる実験結果から、PATは高い検出率で対向的なビデオフレームやビデオを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-09-13T04:05:46Z) - Just One Moment: Inconspicuous One Frame Attack on Deep Action
Recognition [34.925573731184514]
本研究では,深層学習に基づく攻撃に対する行動認識手法の脆弱性について検討する。
ビデオクリップの1フレームだけに、目立たない摂動を付加する新たな1フレーム攻撃を提案する。
提案手法は, 人間の観察者に対して, 高い騙し率を示し, ほとんど知覚できない摂動を生じさせる。
論文 参考訳(メタデータ) (2020-11-30T07:11:56Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。