論文の概要: Analyzing Adversarial Robustness of Vision Transformers against Spatial
and Spectral Attacks
- arxiv url: http://arxiv.org/abs/2208.09602v1
- Date: Sat, 20 Aug 2022 04:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:18:43.629070
- Title: Analyzing Adversarial Robustness of Vision Transformers against Spatial
and Spectral Attacks
- Title(参考訳): 空間的およびスペクトル的攻撃に対する視覚トランスフォーマーの逆ロバスト性の解析
- Authors: Gihyun Kim and Jong-Seok Lee
- Abstract要約: ビジョントランスフォーマーは、画像分類タスクにおいて畳み込みニューラルネットワーク(CNN)よりも優れた、強力なアーキテクチャとして登場した。
画像品質は、敵対的堅牢性の評価において同時に考慮されるべきである。
攻撃された画像の品質によって表現される攻撃強度に応じて、ロバスト性の観点から、あるアーキテクチャと他方のアーキテクチャの優越性が変化することがわかった。
- 参考スコア(独自算出の注目度): 21.302315033392528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision Transformers have emerged as a powerful architecture that can
outperform convolutional neural networks (CNNs) in image classification tasks.
Several attempts have been made to understand robustness of Transformers
against adversarial attacks, but existing studies draw inconsistent results,
i.e., some conclude that Transformers are more robust than CNNs, while some
others find that they have similar degrees of robustness. In this paper, we
address two issues unexplored in the existing studies examining adversarial
robustness of Transformers. First, we argue that the image quality should be
simultaneously considered in evaluating adversarial robustness. We find that
the superiority of one architecture to another in terms of robustness can
change depending on the attack strength expressed by the quality of the
attacked images. Second, by noting that Transformers and CNNs rely on different
types of information in images, we formulate an attack framework, called
Fourier attack, as a tool for implementing flexible attacks, where an image can
be attacked in the spectral domain as well as in the spatial domain. This
attack perturbs the magnitude and phase information of particular frequency
components selectively. Through extensive experiments, we find that
Transformers tend to rely more on phase information and low frequency
information than CNNs, and thus sometimes they are even more vulnerable under
frequency-selective attacks. It is our hope that this work provides new
perspectives in understanding the properties and adversarial robustness of
Transformers.
- Abstract(参考訳): 視覚トランスフォーマーは画像分類タスクにおいて畳み込みニューラルネットワーク(cnns)を上回る強力なアーキテクチャとして登場した。
反逆攻撃に対するトランスフォーマーの堅牢性を理解するためにいくつかの試みがなされているが、既存の研究は矛盾する結果、すなわち、トランスフォーマーはCNNよりも堅牢である、という結論を導いている。
本稿では、トランスフォーマの逆ロバスト性を調べる既存の研究で検討されていない2つの問題に対処する。
まず, 画像品質は, 対向的堅牢性の評価において同時に考慮すべきである。
一方のアーキテクチャから他方のアーキテクチャへの堅牢性は,攻撃画像の品質によって表現される攻撃強度によって変化する。
第2に、トランスフォーマーとcnnが画像内の異なる種類の情報に依存していることを指摘することにより、フーリエアタックと呼ばれる攻撃フレームワークを、スペクトル領域だけでなく空間領域においてもイメージを攻撃できるフレキシブルアタックを実現するためのツールとして定式化する。
この攻撃は特定の周波数成分の大きさと位相情報を選択的に摂動する。
広範な実験を通じて、トランスフォーマはcnnよりも位相情報や低周波情報に依存する傾向にあり、周波数選択攻撃でさらに脆弱になることがあることがわかった。
この研究がトランスフォーマーの特性と敵の堅牢性を理解するための新たな視点を提供することを期待している。
関連論文リスト
- Adversarial Robustness of In-Context Learning in Transformers for Linear Regression [23.737606860443705]
本研究は,線形回帰タスクの設定に焦点をあてたテキストハイザック攻撃に対するトランスフォーマにおける文脈内学習の脆弱性について検討する。
まず,一層線形変圧器が非破壊的であり,任意の予測を出力できることを示す。
次に, 逆行訓練は, ファインタニング時にのみ適用しても, ハイジャック攻撃に対するトランスフォーマーの堅牢性を高めることを実証する。
論文 参考訳(メタデータ) (2024-11-07T21:25:58Z) - Transformers in Unsupervised Structure-from-Motion [19.43053045216986]
トランスフォーマーはディープラーニングベースのコンピュータビジョンに革命をもたらし、パフォーマンスが向上し、自然の腐敗や敵の攻撃に対する堅牢性も向上した。
本研究では, モノクロ画素の深度, エゴ車両のトランスフォーメーションと回転, カメラの焦点長と主点を同時に予測する, 頑健なトランスフォーマーに基づくモノクロSfM法を提案する。
我々の研究は、トランスフォーマーベースのアーキテクチャは、自然な汚職や標的外攻撃に対してより堅牢でありながら、同等のパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-12-16T20:00:34Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Exploration of Lightweight Single Image Denoising with Transformers and
Truly Fair Training [0.0]
この作業は、軽量デノシング(LWDN)とトランスフォーマーの7つの比較ベースライントランスフォーマーを提供する。
また,ランダムに刈り取られたパッチの一部が,トレーニング中のデノイング性能に顕著に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2023-04-04T14:02:42Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Vision Transformers for Action Recognition: A Survey [41.69370782177517]
コンピュータビジョン問題を解決する強力なツールとして、ビジョントランスフォーマーが登場している。
最近の技術は、多数のビデオ関連タスクを解決するために、画像領域を超えたトランスフォーマーの有効性を証明している。
人間の行動認識は、広く応用されているため、研究コミュニティから特別に注目を集めている。
論文 参考訳(メタデータ) (2022-09-13T02:57:05Z) - Can Vision Transformers Perform Convolution? [78.42076260340869]
画像パッチを入力とする単一のViT層が任意の畳み込み操作を構成的に実行可能であることを示す。
我々は、CNNを表現するビジョントランスフォーマーのヘッド数を低くする。
論文 参考訳(メタデータ) (2021-11-02T03:30:17Z) - Blending Anti-Aliasing into Vision Transformer [57.88274087198552]
不連続なパッチ単位のトークン化プロセスは、ジャッジされたアーティファクトをアテンションマップに暗黙的に導入する。
エイリアス効果は、離散パターンを使用して高周波または連続的な情報を生成し、区別不能な歪みをもたらす。
本稿では,前述の問題を緩和するためのAliasing-Reduction Module(ARM)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:30:02Z) - The Nuts and Bolts of Adopting Transformer in GANs [124.30856952272913]
高忠実度画像合成のためのGAN(Generative Adversarial Network)フレームワークにおけるTransformerの特性について検討する。
我々の研究は、STrans-Gと呼ばれる畳み込みニューラルネットワーク(CNN)フリージェネレータであるGANにおけるトランスフォーマーの新しい代替設計につながる。
論文 参考訳(メタデータ) (2021-10-25T17:01:29Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - On the Adversarial Robustness of Visual Transformers [129.29523847765952]
本研究は、視覚変換器(ViT)の対逆的摂動に対する堅牢性に関する最初の包括的な研究を提供する。
さまざまなホワイトボックスとトランスファーアタック設定でテストされた ViT は、畳み込みニューラルネットワーク (CNN) と比較して、より優れた敵対的堅牢性を持っています。
論文 参考訳(メタデータ) (2021-03-29T14:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。