論文の概要: SlowFormer: Universal Adversarial Patch for Attack on Compute and Energy
Efficiency of Inference Efficient Vision Transformers
- arxiv url: http://arxiv.org/abs/2310.02544v1
- Date: Wed, 4 Oct 2023 02:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 16:41:35.376538
- Title: SlowFormer: Universal Adversarial Patch for Attack on Compute and Energy
Efficiency of Inference Efficient Vision Transformers
- Title(参考訳): SlowFormer: 推論効率の良い視覚変換器の計算とエネルギー効率に対するユニバーサル逆パッチ
- Authors: KL Navaneet, Soroush Abbasi Koohpayegani, Essam Sleiman, Hamed
Pirsiavash
- Abstract要約: 我々は、ディープモデルが普遍的な敵パッチ攻撃に対して脆弱であることを示す。
場合によっては、画像領域の8%しか占めていないパッチを貼り付けるだけで、攻撃者は計算を可能な限り最大限に増やすことができる。
標準的な敵の訓練防御方法は、攻撃の成功のいくつかを減らすことができる。
- 参考スコア(独自算出の注目度): 19.599681267633677
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, there has been a lot of progress in reducing the computation of
deep models at inference time. These methods can reduce both the computational
needs and power usage of deep models. Some of these approaches adaptively scale
the compute based on the input instance. We show that such models can be
vulnerable to a universal adversarial patch attack, where the attacker
optimizes for a patch that when pasted on any image, can increase the compute
and power consumption of the model. We run experiments with three different
efficient vision transformer methods showing that in some cases, the attacker
can increase the computation to the maximum possible level by simply pasting a
patch that occupies only 8\% of the image area. We also show that a standard
adversarial training defense method can reduce some of the attack's success. We
believe adaptive efficient methods will be necessary for the future to lower
the power usage of deep models, so we hope our paper encourages the community
to study the robustness of these methods and develop better defense methods for
the proposed attack.
- Abstract(参考訳): 近年,推論時間における深部モデルの計算の削減に多くの進展があった。
これらの手法は、深層モデルの計算ニーズと電力使用量の両方を削減できる。
これらのアプローチのいくつかは、入力インスタンスに基づいて計算を適応的にスケールする。
そこでは,攻撃者が任意の画像に貼り付けると,そのモデルの計算量や消費電力が増加するパッチに対して最適化を行う。
画像領域の8\%しか占有していないパッチを貼るだけで、攻撃者が可能な最大レベルまで計算を増やせることを示すため、3つの異なる効率的な視覚トランスフォーマー法を用いて実験を行った。
また,標準的な対人訓練防衛手法により,攻撃の成功のいくつかを低減できることを示す。
我々は,深層モデルの電力使用量を減らすためには適応的効率的な手法が必要であると信じており,本論文は,これらの手法の堅牢性について研究し,提案した攻撃に対するより良い防御方法の開発をコミュニティに促すことを願っている。
関連論文リスト
- QuantAttack: Exploiting Dynamic Quantization to Attack Vision
Transformers [29.957089564635083]
我々は、量子化されたモデルの可用性を目標とする、新しい攻撃であるQuantAttackを紹介する。
オペレーティングシステムのリソースを無駄にするために設計された、慎重に構築された敵の例は、最悪のパフォーマンスを引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2023-12-03T18:31:19Z) - DefensiveDR: Defending against Adversarial Patches using Dimensionality Reduction [4.4100683691177816]
アドリラルパッチベースの攻撃は、マシンラーニングモデルの使用に対する大きな抑止力であることが示されている。
我々は、このようなパッチベースの攻撃を阻止するために次元削減技術を用いた実用的メカニズムであるtextitDefensiveDRを提案する。
論文 参考訳(メタデータ) (2023-11-20T22:01:31Z) - Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Adaptive Patch Exiting for Scalable Single Image Super-Resolution [19.39197401813409]
本稿では、より実用的な高速化を実現するために、適応パッチ実行(APE)に基づくスケーラブルな手法を提案する。
提案手法の利点を実証するために,様々なバックボーン,データセット,スケーリング要因にわたる広範な実験を行った。
論文 参考訳(メタデータ) (2022-03-22T10:13:48Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Top-KAST: Top-K Always Sparse Training [50.05611544535801]
トレーニングを通して一定間隔を保存するTop-KASTを提案する。
確立したImageNetベンチマークのトレーニングモデルでは,従来の作業と同等かそれ以上に動作可能であることを示す。
ImageNetの結果に加えて、言語モデリングの分野においても、我々のアプローチを実証しています。
論文 参考訳(メタデータ) (2021-06-07T11:13:05Z) - Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum [0.0]
一部の研究は、ディープラーニングモデルが敵の例を攻撃し、誤った判断に弱いことを指摘している。
ランダムなウォームリスタート機構とネステロフ運動量改善に基づくRWR-NM-PGD攻撃アルゴリズムを提案する。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
論文 参考訳(メタデータ) (2021-05-10T07:24:25Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - OGAN: Disrupting Deepfakes with an Adversarial Attack that Survives
Training [0.0]
我々は,対面型オートエンコーダを妨害する敵攻撃のクラスを導入する。
我々は,Oscillating GAN(OGAN)攻撃を提案する。
これらの結果は、広範囲のドメインに適用可能な、訓練耐性の敵攻撃の存在を示すものである。
論文 参考訳(メタデータ) (2020-06-17T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。