論文の概要: Overcomplete Representations Against Adversarial Videos
- arxiv url: http://arxiv.org/abs/2012.04262v1
- Date: Tue, 8 Dec 2020 08:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:35:15.231165
- Title: Overcomplete Representations Against Adversarial Videos
- Title(参考訳): 逆動画に対する過剰表現
- Authors: Shao-Yuan Lo, Jeya Maria Jose Valanarasu, Vishal M. Patel
- Abstract要約: 敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
- 参考スコア(独自算出の注目度): 72.04912755926524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness of deep neural networks is an extensively studied
problem in the literature and various methods have been proposed to defend
against adversarial images. However, only a handful of defense methods have
been developed for defending against attacked videos. In this paper, we propose
a novel Over-and-Under complete restoration network for Defending against
adversarial videos (OUDefend). Most restoration networks adopt an
encoder-decoder architecture that first shrinks spatial dimension then expands
it back. This approach learns undercomplete representations, which have large
receptive fields to collect global information but overlooks local details. On
the other hand, overcomplete representations have opposite properties. Hence,
OUDefend is designed to balance local and global features by learning those two
representations. We attach OUDefend to target video recognition models as a
feature restoration block and train the entire network end-to-end. Experimental
results show that the defenses focusing on images may be ineffective to videos,
while OUDefend enhances robustness against different types of adversarial
videos, ranging from additive attacks, multiplicative attacks to physically
realizable attacks.
- Abstract(参考訳): ディープニューラルネットワークの敵対的堅牢性は、文献で広く研究されている問題であり、敵画像に対して様々な方法が提案されている。
しかし、攻撃されたビデオに対する防衛策はごくわずかしか開発されていない。
本稿では,OUDefend(Over-and-Under complete restoration network for Defending against adversarial video)を提案する。
ほとんどの復元ネットワークはエンコーダ・デコーダアーキテクチャを採用しており、まず空間次元を縮小し、拡張する。
このアプローチは、グローバル情報を集めるための大きな受容領域を持つ未完成表現を学習するが、局所的な詳細を見落としている。
一方、超完全表現は逆の性質を持つ。
したがって、OUDefendはこれらの2つの表現を学習することで、ローカルとグローバルの機能のバランスをとるように設計されている。
我々は,OUDefendを特徴回復ブロックとしてターゲットビデオ認識モデルにアタッチし,ネットワーク全体をエンドツーエンドにトレーニングする。
OUDefendは、加算攻撃、乗算攻撃、物理的に実現可能な攻撃など、様々なタイプの敵対的ビデオに対する堅牢性を高める。
関連論文リスト
- Query-Efficient Video Adversarial Attack with Stylized Logo [17.268709979991996]
ディープニューラルネットワーク(DNN)に基づくビデオ分類システムは、敵の例に対して非常に脆弱である。
我々は Stylized Logo Attack (SLA) と呼ばれる新しいブラックボックスビデオアタックフレームワークを提案する。
SLAは3つのステップで実施される。最初のステップはロゴのスタイル参照セットを構築することであり、生成された例をより自然にするだけでなく、ターゲットとする攻撃でより多くのターゲットクラス機能を実行することができる。
論文 参考訳(メタデータ) (2024-08-22T03:19:09Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - DreaMo: Articulated 3D Reconstruction From A Single Casual Video [59.87221439498147]
対象者の視界が不完全である単一かつカジュアルに捉えたインターネットビデオから3次元形状の連続的再構成について検討した。
DreaMoは、ノベルビューレンダリング、詳細な形状復元、骨格生成において有望な品質を示している。
論文 参考訳(メタデータ) (2023-12-05T09:47:37Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - Sparse Coding Frontend for Robust Neural Networks [11.36192454455449]
ディープニューラルネットワークは、小さくて逆向きに作られた摂動に弱いことが知られている。
現在の対人攻撃に対する防御方法は、対人訓練の変種である。
本稿では,クリーン画像に基づくスパース符号化に基づく根本的に異なる防御手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T11:14:32Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。