論文の概要: Can't Fool Me: Adversarially Robust Transformer for Video Understanding
- arxiv url: http://arxiv.org/abs/2110.13950v1
- Date: Tue, 26 Oct 2021 18:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 12:27:15.651098
- Title: Can't Fool Me: Adversarially Robust Transformer for Video Understanding
- Title(参考訳): Can't Fool Me: ビデオ理解のための逆ロバスト変換器
- Authors: Divya Choudhary, Palash Goyal, Saurabh Sahu
- Abstract要約: ビデオ理解タスクでは、逆向きに堅牢なモデルを開発することは、まだ探索されていない。
まず、画像ベースで逆向きに頑健なモデルの単純な拡張により、最悪の場合のパフォーマンスがわずかに向上することを示す。
大規模ビデオデータセットのYouTube-8Mを用いて、最終モデルは非競合性能に近い結果が得られることを示す。
- 参考スコア(独自算出の注目度): 8.082788827336337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have been shown to perform poorly on adversarial
examples. To address this, several techniques have been proposed to increase
robustness of a model for image classification tasks. However, in video
understanding tasks, developing adversarially robust models is still
unexplored. In this paper, we aim to bridge this gap. We first show that simple
extensions of image based adversarially robust models slightly improve the
worst-case performance. Further, we propose a temporal attention regularization
scheme in Transformer to improve the robustness of attention modules to
adversarial examples. We illustrate using a large-scale video data set
YouTube-8M that the final model (A-ART) achieves close to non-adversarial
performance on its adversarial example set. We achieve 91% GAP on adversarial
examples, whereas baseline Transformer and simple adversarial extensions
achieve 72.9% and 82% respectively, showing significant improvement in
robustness over the state-of-the-art.
- Abstract(参考訳): ディープニューラルネットワークは、逆の例ではパフォーマンスが悪いことが示されている。
これを解決するために,画像分類タスクに対するモデルの堅牢性を高めるために,いくつかの手法が提案されている。
しかし、ビデオ理解タスクでは、逆向きに堅牢なモデルを開発することは未だ未定である。
本稿では,このギャップを埋めることを目的とする。
まず,画像ベースの可逆ロバストモデルの単純な拡張により,最悪の場合のパフォーマンスがわずかに向上することを示す。
さらに,注意モジュールのロバスト性を改善するために,トランスフォーマの時空間的注意正規化方式を提案する。
本稿では, 大規模ビデオデータセット YouTube-8M を用いて, 最終モデル (A-ART) が, 敵の例集合上での非敵的性能に近い結果が得られることを示す。
一方, ベースライントランスフォーマーと単純な逆数拡張は72.9%, 82%であり, 最先端技術に対する堅牢性は著しく向上した。
関連論文リスト
- PAR-AdvGAN: Improving Adversarial Attack Capability with Progressive Auto-Regression AdvGAN [37.42219059503242]
我々はProgressive Auto-Regression AdvGAN(PAR-AdvGAN)という新しいアプローチを導入する。
プログレッシブジェネレーションネットワークに自動回帰イテレーション機構を組み込んで、攻撃能力を増強した敵の例を作成する。
従来のAdvGANと同様に、最先端のブラックボックス攻撃よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-02-16T19:00:55Z) - Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Learning Transferable Adversarial Robust Representations via Multi-view
Consistency [57.73073964318167]
デュアルエンコーダを用いたメタ逆多視点表現学習フレームワークを提案する。
未確認領域からの少数ショット学習タスクにおけるフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Deeper Insights into ViTs Robustness towards Common Corruptions [82.79764218627558]
我々は、CNNのようなアーキテクチャ設計とCNNベースのデータ拡張戦略が、一般的な汚職に対するViTsの堅牢性にどのように影響するかを検討する。
重なり合うパッチ埋め込みと畳み込みフィードフォワードネットワーク(FFN)がロバスト性の向上を実証する。
また、2つの角度から入力値の増大を可能にする新しい条件付き手法も導入する。
論文 参考訳(メタデータ) (2022-04-26T08:22:34Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。