論文の概要: Boosting Adversarial Transferability of MLP-Mixer
- arxiv url: http://arxiv.org/abs/2204.12204v1
- Date: Tue, 26 Apr 2022 10:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:30:17.151214
- Title: Boosting Adversarial Transferability of MLP-Mixer
- Title(参考訳): MLPミキサーの対向転写性向上
- Authors: Haoran Lyu, Yajie Wang, Yu-an Tan, Huipeng Zhou, Yuhang Zhao and
Quanxin Zhang
- Abstract要約: 我々は,マクスウェルの悪魔攻撃(MA)と呼ばれるDense-Mixerに対する敵攻撃法を提案する。
提案手法は既存の手法と簡単に組み合わせることができ,ResMLPでは最大38.0%の転送性を向上させることができる。
我々の知る限りでは、Dense-Mixerの対向移動可能性を研究する最初の研究である。
- 参考スコア(独自算出の注目度): 9.957957463532738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The security of models based on new architectures such as MLP-Mixer and ViTs
needs to be studied urgently. However, most of the current researches are
mainly aimed at the adversarial attack against ViTs, and there is still
relatively little adversarial work on MLP-mixer. We propose an adversarial
attack method against MLP-Mixer called Maxwell's demon Attack (MA). MA breaks
the channel-mixing and token-mixing mechanism of MLP-Mixer by controlling the
part input of MLP-Mixer's each Mixer layer, and disturbs MLP-Mixer to obtain
the main information of images. Our method can mask the part input of the Mixer
layer, avoid overfitting of the adversarial examples to the source model, and
improve the transferability of cross-architecture. Extensive experimental
evaluation demonstrates the effectiveness and superior performance of the
proposed MA. Our method can be easily combined with existing methods and can
improve the transferability by up to 38.0% on MLP-based ResMLP. Adversarial
examples produced by our method on MLP-Mixer are able to exceed the
transferability of adversarial examples produced using DenseNet against CNNs.
To the best of our knowledge, we are the first work to study adversarial
transferability of MLP-Mixer.
- Abstract(参考訳): MLP-MixerやViTsといった新しいアーキテクチャに基づくモデルのセキュリティは、緊急に研究する必要がある。
しかし、現在の研究の大部分は主にViTに対する敵対的な攻撃を目的としており、MLP-mixerに対する敵対的な研究は比較的少ない。
我々は,マクスウェルの悪魔攻撃(MA)と呼ばれるMLPミクサーに対する敵攻撃手法を提案する。
MAは、MLPミキサーの各ミキサー層の一部入力を制御することで、MLPミキサーのチャネルミキシング及びトークンミキシング機構を破り、MLPミキサーを乱して画像の主情報を得る。
提案手法は,ミキサー層の一部入力をマスキングし,逆例のソースモデルへの過剰適合を回避し,クロスアーキテクチャの転送性を向上させる。
広範な実験評価により,提案手法の有効性と性能が実証された。
提案手法は既存の手法と簡単に組み合わせることができ、MPPベースのResMLPで最大38.0%の転送性を向上させることができる。
MLP-Mixer の逆例は DenseNet を用いた CNN に対する逆例の転送可能性を上回ることができる。
我々の知る限り、我々はMLP-Mixerの対向転写可能性を研究する最初の研究である。
関連論文リスト
- MLP Can Be A Good Transformer Learner [73.01739251050076]
自己保持機構はトランスフォーマーの鍵であるが、その計算要求に対してしばしば批判される。
本稿では,非重要注意層を選択的に除去することで,視覚変換器の簡易化と計算負荷削減を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T16:40:15Z) - Understanding MLP-Mixer as a Wide and Sparse MLP [7.734726150561087]
多層パーセプトロン(MLP)は深層学習の基本的な構成要素である。
最近のアーキテクチャ、特にMixer-Mixerは、経験的成功を収めた。
スパースネスはMixer-Mixersの根底にある重要なメカニズムであることを示す。
論文 参考訳(メタデータ) (2023-06-02T11:51:24Z) - Model-tuning Via Prompts Makes NLP Models Adversarially Robust [97.02353907677703]
Model-tuning Via Prompts (MVP) による対向的ロバスト性の評価
MVPは、標準的な方法よりも平均8%の性能向上を実現している。
また,これらの利得の基盤となるメカニズムの解明も行なっている。
論文 参考訳(メタデータ) (2023-03-13T17:41:57Z) - SplitMixer: Fat Trimmed From MLP-like Models [53.12472550578278]
視覚認識のためのシンプルで軽量な等方的アーキテクチャであるSplitMixerを提案する。
情報(空間混合)とチャネル(チャネル混合)の2種類のインターリーブ畳み込み操作を含む。
論文 参考訳(メタデータ) (2022-07-21T01:37:07Z) - Mixing and Shifting: Exploiting Global and Local Dependencies in Vision
MLPs [84.3235981545673]
Token-mixing Multi-layer Perceptron (MLP) モデルはコンピュータビジョンタスクにおいて競合性能を示す。
本研究では,空間シフトの量に関して,局所受容場のサイズを増大させるMix-Shift-MLPを提案する。
MS-MLPは、複数のビジョンベンチマークで競合性能を達成する。
論文 参考訳(メタデータ) (2022-02-14T06:53:48Z) - PointMixer: MLP-Mixer for Point Cloud Understanding [74.694733918351]
チャネルミキシングとトークンミキシングの概念は、視覚認識タスクにおいて顕著なパフォーマンスを達成する。
画像とは異なり、点雲は本質的にスパースで、秩序がなく、不規則であり、点雲の理解にユニバーサルミクサーを直接使用することを制限する。
本稿では,非構造化3次元点間の情報共有を容易にする共通点集合演算子であるPointMixerを提案する。
論文 参考訳(メタデータ) (2021-11-22T13:25:54Z) - Rethinking Token-Mixing MLP for MLP-based Vision Backbone [34.47616917228978]
本稿では,Circulant Channel-Specific(CCS)トークン混合ベンチマークと呼ばれる,空間不変かつチャネル固有な改良された構造を提案する。
パラメータは少ないが、ImageNet1Kでは高い分類精度が得られる。
論文 参考訳(メタデータ) (2021-06-28T17:59:57Z) - S$^2$-MLP: Spatial-Shift MLP Architecture for Vision [34.47616917228978]
近年、視覚変換器(ViT)とその後続の作業は、畳み込みを放棄し、自己注意操作を活用している。
本稿では,空間シフト(S$2$-MLP)という新しい純粋アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-06-14T15:05:11Z) - MLP-Mixer: An all-MLP Architecture for Vision [93.16118698071993]
マルチ層パーセプトロン(MLP)を基盤としたアーキテクチャ「Mixer」を発表。
Mixerはイメージ分類ベンチマークで競合スコアを獲得し、事前トレーニングと推論は最先端のモデルに匹敵する。
論文 参考訳(メタデータ) (2021-05-04T16:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。