論文の概要: Can't Fool Me: Adversarially Robust Transformer for Video Understanding
- arxiv url: http://arxiv.org/abs/2110.13950v1
- Date: Tue, 26 Oct 2021 18:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 12:27:15.651098
- Title: Can't Fool Me: Adversarially Robust Transformer for Video Understanding
- Title(参考訳): Can't Fool Me: ビデオ理解のための逆ロバスト変換器
- Authors: Divya Choudhary, Palash Goyal, Saurabh Sahu
- Abstract要約: ビデオ理解タスクでは、逆向きに堅牢なモデルを開発することは、まだ探索されていない。
まず、画像ベースで逆向きに頑健なモデルの単純な拡張により、最悪の場合のパフォーマンスがわずかに向上することを示す。
大規模ビデオデータセットのYouTube-8Mを用いて、最終モデルは非競合性能に近い結果が得られることを示す。
- 参考スコア(独自算出の注目度): 8.082788827336337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have been shown to perform poorly on adversarial
examples. To address this, several techniques have been proposed to increase
robustness of a model for image classification tasks. However, in video
understanding tasks, developing adversarially robust models is still
unexplored. In this paper, we aim to bridge this gap. We first show that simple
extensions of image based adversarially robust models slightly improve the
worst-case performance. Further, we propose a temporal attention regularization
scheme in Transformer to improve the robustness of attention modules to
adversarial examples. We illustrate using a large-scale video data set
YouTube-8M that the final model (A-ART) achieves close to non-adversarial
performance on its adversarial example set. We achieve 91% GAP on adversarial
examples, whereas baseline Transformer and simple adversarial extensions
achieve 72.9% and 82% respectively, showing significant improvement in
robustness over the state-of-the-art.
- Abstract(参考訳): ディープニューラルネットワークは、逆の例ではパフォーマンスが悪いことが示されている。
これを解決するために,画像分類タスクに対するモデルの堅牢性を高めるために,いくつかの手法が提案されている。
しかし、ビデオ理解タスクでは、逆向きに堅牢なモデルを開発することは未だ未定である。
本稿では,このギャップを埋めることを目的とする。
まず,画像ベースの可逆ロバストモデルの単純な拡張により,最悪の場合のパフォーマンスがわずかに向上することを示す。
さらに,注意モジュールのロバスト性を改善するために,トランスフォーマの時空間的注意正規化方式を提案する。
本稿では, 大規模ビデオデータセット YouTube-8M を用いて, 最終モデル (A-ART) が, 敵の例集合上での非敵的性能に近い結果が得られることを示す。
一方, ベースライントランスフォーマーと単純な逆数拡張は72.9%, 82%であり, 最先端技術に対する堅牢性は著しく向上した。
関連論文リスト
- On the unreasonable vulnerability of transformers for image restoration
-- and an easy fix [16.927916090724363]
画像修復にViTsの対向性の改善が有効か検討した。
我々は最近提案されたRestormerモデルとNAFNetと"Baseline network"について検討する。
実験は、GoProデータセットの実際の画像を用いて行われ、画像の劣化を観察する。
論文 参考訳(メタデータ) (2023-07-25T23:09:05Z) - Robust Semantic Segmentation: Strong Adversarial Attacks and Fast
Training of Robust Models [55.19586522442065]
攻撃セグメンテーションモデルがタスク固有の課題を示し、新しい解決策を提案する。
我々の最終評価プロトコルは既存の手法よりも優れており、モデルの頑健さを過大評価できることを示す。
論文 参考訳(メタデータ) (2023-06-22T14:56:06Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Deeper Insights into ViTs Robustness towards Common Corruptions [82.79764218627558]
我々は、CNNのようなアーキテクチャ設計とCNNベースのデータ拡張戦略が、一般的な汚職に対するViTsの堅牢性にどのように影響するかを検討する。
重なり合うパッチ埋め込みと畳み込みフィードフォワードネットワーク(FFN)がロバスト性の向上を実証する。
また、2つの角度から入力値の増大を可能にする新しい条件付き手法も導入する。
論文 参考訳(メタデータ) (2022-04-26T08:22:34Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。