論文の概要: Efficient Robustness Assessment via Adversarial Spatial-Temporal Focus
on Videos
- arxiv url: http://arxiv.org/abs/2301.00896v2
- Date: Mon, 27 Mar 2023 01:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 01:04:28.876374
- Title: Efficient Robustness Assessment via Adversarial Spatial-Temporal Focus
on Videos
- Title(参考訳): 映像の空間的視点による高能率ロバストネス評価
- Authors: Wei Xingxing and Wang Songping and Yan Huanqian
- Abstract要約: 本稿では,ビデオの空間時間的アタック(AstFocus)を新たに設計し,同時に焦点を絞ったキーフレームとキー領域に対するアタックを行う。
連続的なクエリにより、キーフレームとキー領域からなる縮小された検索空間が正確になっている。
4つの主流ビデオ認識モデルと3つの広く使われているアクション認識データセットの実験は、提案したAstFocus攻撃がSOTA法より優れていることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial robustness assessment for video recognition models has raised
concerns owing to their wide applications on safety-critical tasks. Compared
with images, videos have much high dimension, which brings huge computational
costs when generating adversarial videos. This is especially serious for the
query-based black-box attacks where gradient estimation for the threat models
is usually utilized, and high dimensions will lead to a large number of
queries. To mitigate this issue, we propose to simultaneously eliminate the
temporal and spatial redundancy within the video to achieve an effective and
efficient gradient estimation on the reduced searching space, and thus query
number could decrease. To implement this idea, we design the novel Adversarial
spatial-temporal Focus (AstFocus) attack on videos, which performs attacks on
the simultaneously focused key frames and key regions from the inter-frames and
intra-frames in the video. AstFocus attack is based on the cooperative
Multi-Agent Reinforcement Learning (MARL) framework. One agent is responsible
for selecting key frames, and another agent is responsible for selecting key
regions. These two agents are jointly trained by the common rewards received
from the black-box threat models to perform a cooperative prediction. By
continuously querying, the reduced searching space composed of key frames and
key regions is becoming precise, and the whole query number becomes less than
that on the original video. Extensive experiments on four mainstream video
recognition models and three widely used action recognition datasets
demonstrate that the proposed AstFocus attack outperforms the SOTA methods,
which is prevenient in fooling rate, query number, time, and perturbation
magnitude at the same.
- Abstract(参考訳): ビデオ認識モデルに対する敵対的ロバスト性評価は、安全クリティカルなタスクに対する広範囲の応用が懸念されている。
画像と比較すると、ビデオは高次元であり、逆動画を生成する際に膨大な計算コストがかかる。
これは特に、脅威モデルの勾配推定が一般的に利用され、高次元が大量のクエリに繋がるクエリベースのブラックボックス攻撃に対して深刻である。
そこで本研究では,映像内の時間的冗長性と空間的冗長性を同時に排除し,検索空間の縮小による効率的かつ効率的な勾配推定を実現することを提案する。
このアイデアを実現するために,ビデオ内のフレーム間およびフレーム内から集中したキーフレームとキー領域を同時に攻撃する,新しいアストラクショナル空間時間焦点攻撃(AstFocus)を設計する。
AstFocus攻撃はMARL(Multi-Agent Reinforcement Learning)フレームワークに基づいている。
ひとつのエージェントがキーフレームを選択し、別のエージェントがキー領域を選択する責務を負う。
これら2つのエージェントは、協調予測を行うブラックボックス脅威モデルから受け取った共通の報酬によって共同で訓練される。
連続的なクエリにより、キーフレームとキー領域からなる縮小された検索空間が正確になり、クエリ番号全体が元のビデオより小さくなっている。
4つの主流なビデオ認識モデルと3つの広く使われているアクション認識データセットに関する大規模な実験により、提案されたAstFocus攻撃は、不正率、クエリ数、時間、摂動等級を同時に上回るSOTA手法を示す。
関連論文リスト
- Adversarial Attacks on Video Object Segmentation with Hard Region
Discovery [31.882369005280793]
ビデオオブジェクトのセグメンテーションは、ビデオ編集、自律運転、人間とロボットの相互作用など、様々なコンピュータビジョンタスクに適用されている。
ディープニューラルネットワークは、ほとんど人間の知覚できない摂動によって攻撃される入力である敵の例に対して脆弱である。
これは、入力ビデオへの小さな摂動が攻撃リスクをもたらすため、高要求タスクにおけるセキュリティ上の問題を引き起こす。
論文 参考訳(メタデータ) (2023-09-25T03:52:15Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Efficient Decision-based Black-box Patch Attacks on Video Recognition [33.5640770588839]
この研究はまず、意思決定に基づくビデオモデルに対するパッチ攻撃について検討する。
問合せ効率の高い攻撃を実現するために,時空間差分進化フレームワークを提案する。
STDEは、脅威、効率、非受容性の点で最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2023-03-21T15:08:35Z) - Deep Unsupervised Key Frame Extraction for Efficient Video
Classification [63.25852915237032]
本研究は、畳み込みニューラルネットワーク(CNN)と時間セグメント密度ピーククラスタリング(TSDPC)を組み合わせたキーフレームの検索方法を提案する。
提案した TSDPC は汎用的で強力なフレームワークであり,従来の研究に比べて2つの利点がある。
さらに、CNNの上部にLong Short-Term Memory Network (LSTM)を追加し、分類性能をさらに高める。
論文 参考訳(メタデータ) (2022-11-12T20:45:35Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Event and Activity Recognition in Video Surveillance for Cyber-Physical
Systems [0.0]
長期動作パターンは、イベントを認識するタスクにおいて、それ自体が重要な役割を果たす。
本研究では,イベント認識作業において,長期動作パターンのみが重要な役割を担っていることを示す。
時間的特徴のみをハイブリッド畳み込みニューラルネットワーク(CNN)+リカレントニューラルネットワーク(RNN)アーキテクチャで活用する。
論文 参考訳(メタデータ) (2021-11-03T08:30:38Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Reinforcement Learning Based Sparse Black-box Adversarial Attack on
Video Recognition Models [3.029434408969759]
ブラックボックスの敵攻撃は、選択されたキー領域とキーフレームでのみ実行される。
本稿では,攻撃プロセスの高速化を目的とした強化学習に基づくフレーム選択手法を提案する。
実データセットにおける実験結果の範囲は,提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-08-29T12:22:40Z) - Sparse Black-box Video Attack with Reinforcement Learning [14.624074868199287]
ブラックボックスビデオ攻撃を強化学習フレームワークに定式化する。
RLの環境を認識モデルとし、RLのエージェントがフレーム選択の役割を果たす。
我々は2つの主流ビデオ認識モデルを用いて一連の実験を行う。
論文 参考訳(メタデータ) (2020-01-11T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。