論文の概要: DeSparsify: Adversarial Attack Against Token Sparsification Mechanisms
in Vision Transformers
- arxiv url: http://arxiv.org/abs/2402.02554v1
- Date: Sun, 4 Feb 2024 15:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 19:02:34.900801
- Title: DeSparsify: Adversarial Attack Against Token Sparsification Mechanisms
in Vision Transformers
- Title(参考訳): desparsify:視覚トランスフォーマーにおけるトークンスパーシフィケーション機構に対する敵対的攻撃
- Authors: Oryan Yehezkel, Alon Zolfi, Amit Baras, Yuval Elovici, Asaf Shabtai
- Abstract要約: DeSparsifyはトークンスペーサー機構を用いた視覚変換器の可用性を狙った攻撃である。
この攻撃は、ステルス性を維持しながら、オペレーティングシステムのリソースを浪費することを目的としている。
攻撃の影響を軽減するため,様々な対策を提案する。
- 参考スコア(独自算出の注目度): 27.422480166753537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision transformers have contributed greatly to advancements in the computer
vision domain, demonstrating state-of-the-art performance in diverse tasks
(e.g., image classification, object detection). However, their high
computational requirements grow quadratically with the number of tokens used.
Token sparsification techniques have been proposed to address this issue. These
techniques employ an input-dependent strategy, in which uninformative tokens
are discarded from the computation pipeline, improving the model's efficiency.
However, their dynamism and average-case assumption makes them vulnerable to a
new threat vector - carefully crafted adversarial examples capable of fooling
the sparsification mechanism, resulting in worst-case performance. In this
paper, we present DeSparsify, an attack targeting the availability of vision
transformers that use token sparsification mechanisms. The attack aims to
exhaust the operating system's resources, while maintaining its stealthiness.
Our evaluation demonstrates the attack's effectiveness on three token
sparsification techniques and examines the attack's transferability between
them and its effect on the GPU resources. To mitigate the impact of the attack,
we propose various countermeasures.
- Abstract(参考訳): ビジョントランスフォーマーはコンピュータビジョン領域の発展に大きく貢献し、様々なタスク(画像分類、オブジェクト検出など)における最先端のパフォーマンスを示している。
しかし、それらの高い計算要件は使用トークンの数で二次的に増加する。
この問題に対処するため、トークンスペーシフィケーション技術が提案されている。
これらの手法は入力に依存した戦略を採用しており、不定形トークンは計算パイプラインから取り除かれ、モデルの効率が向上する。
しかし、彼らのダイナミズムと平均ケースの仮定は、新しい脅威ベクトルに弱い - スパーシフィケーションメカニズムを騙すことのできる、慎重に構築された敵の例で、最悪のケースのパフォーマンスをもたらす。
本稿では,トークンスパーシフィケーション機構を用いた視覚トランスフォーマーの可用性を標的とした攻撃であるdesparsifyを提案する。
この攻撃は、ステルス性を維持しながら、オペレーティングシステムのリソースを浪費することを目的としている。
本評価では,3つのトークンスペーシフィケーション手法における攻撃の有効性を実証し,攻撃の相互転送性とそのGPUリソースへの影響について検討する。
攻撃の影響を軽減するため,様々な対策を提案する。
関連論文リスト
- Transformation-Dependent Adversarial Attacks [15.374381635334897]
変換依存的敵攻撃(transform-dependent adversarial attack)は、単一の加法摂動が多様で制御可能な誤予測を引き起こす新たな種類の脅威である。
静的な影響を持つ従来の攻撃とは異なり、我々の摂動は変換パラメータの関数として異なる敵攻撃を可能にする変成特性を埋め込む。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - The Efficacy of Transformer-based Adversarial Attacks in Security
Domains [0.7156877824959499]
システムディフェンダーの対向サンプルに対する変換器のロバスト性およびシステムアタッカーに対する対向強度を評価する。
我々の研究は、セキュリティ領域におけるモデルの攻撃と防御のためにトランスフォーマーアーキテクチャを研究することの重要性を強調している。
論文 参考訳(メタデータ) (2023-10-17T21:45:23Z) - Adaptive Attack Detection in Text Classification: Leveraging Space Exploration Features for Text Sentiment Classification [44.99833362998488]
敵のサンプル検出は、特に急速に進化する攻撃に直面して、適応的なサイバー防御において重要な役割を果たす。
本稿では,BERT(Bidirectional Representations from Transformers)のパワーを活用し,空間探索機能(Space Exploration Features)の概念を提案する。
論文 参考訳(メタデータ) (2023-08-29T23:02:26Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。