論文の概要: Exploring Adversarial Robustness of Vision Transformers in the Spectral
Perspective
- arxiv url: http://arxiv.org/abs/2208.09602v2
- Date: Fri, 15 Dec 2023 18:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 19:57:09.994432
- Title: Exploring Adversarial Robustness of Vision Transformers in the Spectral
Perspective
- Title(参考訳): スペクトル視点における視覚変換器の対向ロバスト性探索
- Authors: Gihyun Kim, Juyeop Kim, Jong-Seok Lee
- Abstract要約: Vision Transformerは画像分類タスクの強力なツールとして登場し、畳み込みニューラルネットワーク(CNN)の性能を上回っている。
本稿では,スペクトル領域における周波数選択摂動に対する変換器の対角的堅牢性について検討する。
実験の結果、Transformerは位相情報や低周波情報に依存しており、CNNよりも周波数選択攻撃に弱いことが判明した。
- 参考スコア(独自算出の注目度): 17.944601540945175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Vision Transformer has emerged as a powerful tool for image
classification tasks, surpassing the performance of convolutional neural
networks (CNNs). Recently, many researchers have attempted to understand the
robustness of Transformers against adversarial attacks. However, previous
researches have focused solely on perturbations in the spatial domain. This
paper proposes an additional perspective that explores the adversarial
robustness of Transformers against frequency-selective perturbations in the
spectral domain. To facilitate comparison between these two domains, an attack
framework is formulated as a flexible tool for implementing attacks on images
in the spatial and spectral domains. The experiments reveal that Transformers
rely more on phase and low frequency information, which can render them more
vulnerable to frequency-selective attacks than CNNs. This work offers new
insights into the properties and adversarial robustness of Transformers.
- Abstract(参考訳): Vision Transformerは画像分類タスクの強力なツールとして登場し、畳み込みニューラルネットワーク(CNN)のパフォーマンスを上回っている。
近年,多くの研究者が反逆攻撃に対するトランスフォーマーの堅牢性を理解しようと試みている。
しかし、これまでの研究は空間領域の摂動にのみ焦点をあててきた。
本稿では,スペクトル領域における周波数選択摂動に対する変圧器の逆ロバスト性について検討する。
これら2つの領域の比較を容易にするために、空間領域とスペクトル領域における画像に対する攻撃を実装する柔軟なツールとして、攻撃フレームワークを定式化する。
実験の結果、トランスフォーマーは位相情報や低周波情報に依存しており、cnnよりも周波数選択攻撃に弱いことが判明した。
この研究はトランスフォーマーの特性と敵の堅牢性に関する新たな洞察を提供する。
関連論文リスト
- Transformers in Unsupervised Structure-from-Motion [19.43053045216986]
トランスフォーマーはディープラーニングベースのコンピュータビジョンに革命をもたらし、パフォーマンスが向上し、自然の腐敗や敵の攻撃に対する堅牢性も向上した。
本研究では, モノクロ画素の深度, エゴ車両のトランスフォーメーションと回転, カメラの焦点長と主点を同時に予測する, 頑健なトランスフォーマーに基づくモノクロSfM法を提案する。
我々の研究は、トランスフォーマーベースのアーキテクチャは、自然な汚職や標的外攻撃に対してより堅牢でありながら、同等のパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2023-12-16T20:00:34Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Exploration of Lightweight Single Image Denoising with Transformers and
Truly Fair Training [0.0]
この作業は、軽量デノシング(LWDN)とトランスフォーマーの7つの比較ベースライントランスフォーマーを提供する。
また,ランダムに刈り取られたパッチの一部が,トレーニング中のデノイング性能に顕著に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2023-04-04T14:02:42Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Vision Transformers for Action Recognition: A Survey [41.69370782177517]
コンピュータビジョン問題を解決する強力なツールとして、ビジョントランスフォーマーが登場している。
最近の技術は、多数のビデオ関連タスクを解決するために、画像領域を超えたトランスフォーマーの有効性を証明している。
人間の行動認識は、広く応用されているため、研究コミュニティから特別に注目を集めている。
論文 参考訳(メタデータ) (2022-09-13T02:57:05Z) - Investigating Expressiveness of Transformer in Spectral Domain for
Graphs [6.092217185687028]
変圧器の領域における空間領域とスペクトル領域の関連性について検討し,その証明を行う。
本研究では,空間空間における注目に類似したグラフスペクトル全体に対する注目を実現するためのフレームワークFeTAを提案する。
論文 参考訳(メタデータ) (2022-01-23T18:03:22Z) - Can Vision Transformers Perform Convolution? [78.42076260340869]
画像パッチを入力とする単一のViT層が任意の畳み込み操作を構成的に実行可能であることを示す。
我々は、CNNを表現するビジョントランスフォーマーのヘッド数を低くする。
論文 参考訳(メタデータ) (2021-11-02T03:30:17Z) - Blending Anti-Aliasing into Vision Transformer [57.88274087198552]
不連続なパッチ単位のトークン化プロセスは、ジャッジされたアーティファクトをアテンションマップに暗黙的に導入する。
エイリアス効果は、離散パターンを使用して高周波または連続的な情報を生成し、区別不能な歪みをもたらす。
本稿では,前述の問題を緩和するためのAliasing-Reduction Module(ARM)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:30:02Z) - The Nuts and Bolts of Adopting Transformer in GANs [124.30856952272913]
高忠実度画像合成のためのGAN(Generative Adversarial Network)フレームワークにおけるTransformerの特性について検討する。
我々の研究は、STrans-Gと呼ばれる畳み込みニューラルネットワーク(CNN)フリージェネレータであるGANにおけるトランスフォーマーの新しい代替設計につながる。
論文 参考訳(メタデータ) (2021-10-25T17:01:29Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - On the Adversarial Robustness of Visual Transformers [129.29523847765952]
本研究は、視覚変換器(ViT)の対逆的摂動に対する堅牢性に関する最初の包括的な研究を提供する。
さまざまなホワイトボックスとトランスファーアタック設定でテストされた ViT は、畳み込みニューラルネットワーク (CNN) と比較して、より優れた敵対的堅牢性を持っています。
論文 参考訳(メタデータ) (2021-03-29T14:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。