論文の概要: Overcomplete Representations Against Adversarial Videos
- arxiv url: http://arxiv.org/abs/2012.04262v1
- Date: Tue, 8 Dec 2020 08:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:35:15.231165
- Title: Overcomplete Representations Against Adversarial Videos
- Title(参考訳): 逆動画に対する過剰表現
- Authors: Shao-Yuan Lo, Jeya Maria Jose Valanarasu, Vishal M. Patel
- Abstract要約: 敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
- 参考スコア(独自算出の注目度): 72.04912755926524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness of deep neural networks is an extensively studied
problem in the literature and various methods have been proposed to defend
against adversarial images. However, only a handful of defense methods have
been developed for defending against attacked videos. In this paper, we propose
a novel Over-and-Under complete restoration network for Defending against
adversarial videos (OUDefend). Most restoration networks adopt an
encoder-decoder architecture that first shrinks spatial dimension then expands
it back. This approach learns undercomplete representations, which have large
receptive fields to collect global information but overlooks local details. On
the other hand, overcomplete representations have opposite properties. Hence,
OUDefend is designed to balance local and global features by learning those two
representations. We attach OUDefend to target video recognition models as a
feature restoration block and train the entire network end-to-end. Experimental
results show that the defenses focusing on images may be ineffective to videos,
while OUDefend enhances robustness against different types of adversarial
videos, ranging from additive attacks, multiplicative attacks to physically
realizable attacks.
- Abstract(参考訳): ディープニューラルネットワークの敵対的堅牢性は、文献で広く研究されている問題であり、敵画像に対して様々な方法が提案されている。
しかし、攻撃されたビデオに対する防衛策はごくわずかしか開発されていない。
本稿では,OUDefend(Over-and-Under complete restoration network for Defending against adversarial video)を提案する。
ほとんどの復元ネットワークはエンコーダ・デコーダアーキテクチャを採用しており、まず空間次元を縮小し、拡張する。
このアプローチは、グローバル情報を集めるための大きな受容領域を持つ未完成表現を学習するが、局所的な詳細を見落としている。
一方、超完全表現は逆の性質を持つ。
したがって、OUDefendはこれらの2つの表現を学習することで、ローカルとグローバルの機能のバランスをとるように設計されている。
我々は,OUDefendを特徴回復ブロックとしてターゲットビデオ認識モデルにアタッチし,ネットワーク全体をエンドツーエンドにトレーニングする。
OUDefendは、加算攻撃、乗算攻撃、物理的に実現可能な攻撃など、様々なタイプの敵対的ビデオに対する堅牢性を高める。
関連論文リスト
- DreaMo: Articulated 3D Reconstruction From A Single Casual Video [59.87221439498147]
対象者の視界が不完全である単一かつカジュアルに捉えたインターネットビデオから3次元形状の連続的再構成について検討した。
DreaMoは、ノベルビューレンダリング、詳細な形状復元、骨格生成において有望な品質を示している。
論文 参考訳(メタデータ) (2023-12-05T09:47:37Z) - Self-Supervised Transformer with Domain Adaptive Reconstruction for
General Face Forgery Video Detection [24.619102747582456]
コントラスト・リコンストラクション学習(CoReST)と協調する自己教師型トランスフォーマーを提案する。
コントラスト学習と再構成学習を組み合わせた2つの補助的タスクは、表現学習を強化するように設計されている。
提案手法は,最先端の教師付きコンペティタよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-09T13:40:44Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Sparse Coding Frontend for Robust Neural Networks [11.36192454455449]
ディープニューラルネットワークは、小さくて逆向きに作られた摂動に弱いことが知られている。
現在の対人攻撃に対する防御方法は、対人訓練の変種である。
本稿では,クリーン画像に基づくスパース符号化に基づく根本的に異なる防御手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T11:14:32Z) - MultAV: Multiplicative Adversarial Videos [71.94264837503135]
本稿では,ビデオ認識モデルに対する新たな攻撃手法であるMultAVを提案する。
MultAVは乗算によってビデオデータに摂動を課す。
実験結果から,MultAV に対する加法攻撃に対して逆向きに訓練したモデルでは,MultAV に対するロバスト性が低いことが示された。
論文 参考訳(メタデータ) (2020-09-17T04:34:39Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。