論文の概要: DBIA: Data-free Backdoor Injection Attack against Transformer Networks
- arxiv url: http://arxiv.org/abs/2111.11870v1
- Date: Mon, 22 Nov 2021 08:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 14:31:18.024034
- Title: DBIA: Data-free Backdoor Injection Attack against Transformer Networks
- Title(参考訳): DBIA: トランスネットワークに対するデータフリーバックドアインジェクション攻撃
- Authors: Peizhuo Lv, Hualong Ma, Jiachen Zhou, Ruigang Liang, Kai Chen,
Shengzhi Zhang, Yunfei Yang
- Abstract要約: CV指向トランスネットワークに対するデータフリーバックドア攻撃であるDBIAを提案する。
弊社のアプローチでは、バックドアを高い成功率で埋め込むことができ、被害者のトランスフォーマーの性能への影響も低い。
- 参考スコア(独自算出の注目度): 6.969019759456717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, transformer architecture has demonstrated its significance in both
Natural Language Processing (NLP) and Computer Vision (CV) tasks. Though other
network models are known to be vulnerable to the backdoor attack, which embeds
triggers in the model and controls the model behavior when the triggers are
presented, little is known whether such an attack is still valid on the
transformer models and if so, whether it can be done in a more cost-efficient
manner. In this paper, we propose DBIA, a novel data-free backdoor attack
against the CV-oriented transformer networks, leveraging the inherent attention
mechanism of transformers to generate triggers and injecting the backdoor using
the poisoned surrogate dataset. We conducted extensive experiments based on
three benchmark transformers, i.e., ViT, DeiT and Swin Transformer, on two
mainstream image classification tasks, i.e., CIFAR10 and ImageNet. The
evaluation results demonstrate that, consuming fewer resources, our approach
can embed backdoors with a high success rate and a low impact on the
performance of the victim transformers. Our code is available at
https://anonymous.4open.science/r/DBIA-825D.
- Abstract(参考訳): 近年,自然言語処理(NLP)タスクとコンピュータビジョン(CV)タスクにおいて,トランスフォーマーアーキテクチャの重要性が証明されている。
他のネットワークモデルは、モデルにトリガーを埋め込み、トリガーが提示されたときにモデル動作を制御するバックドア攻撃に対して脆弱であることが知られているが、そのような攻撃がトランスフォーマーモデルでまだ有効であるかどうか、もしそうであれば、よりコスト効率のよい方法で実行できるかどうかはほとんど分かっていない。
本稿では,cv指向トランスフォーマネットワークに対する新たなデータフリーバックドア攻撃であるdbiaを提案し,トランスフォーマの固有の注意機構を利用してトリガーを生成し,毒付きサロゲートデータセットを用いてバックドアを注入する。
我々は,3つのベンチマーク変換器(ViT,DeiT,Swin Transformer)に基づいて,CIFAR10とImageNetの2つの主流画像分類タスクについて広範な実験を行った。
評価の結果, 資源消費が少なく, 高い成功率, 被害者のトランスフォーマーの性能への影響が低いバックドアを埋め込むことができることがわかった。
私たちのコードはhttps://anonymous.4open.science/r/DBIA-825Dで利用可能です。
関連論文リスト
- Adversarial Robustness of In-Context Learning in Transformers for Linear Regression [23.737606860443705]
本研究は,線形回帰タスクの設定に焦点をあてたテキストハイザック攻撃に対するトランスフォーマにおける文脈内学習の脆弱性について検討する。
まず,一層線形変圧器が非破壊的であり,任意の予測を出力できることを示す。
次に, 逆行訓練は, ファインタニング時にのみ適用しても, ハイジャック攻撃に対するトランスフォーマーの堅牢性を高めることを実証する。
論文 参考訳(メタデータ) (2024-11-07T21:25:58Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Reproducibility Study on Adversarial Attacks Against Robust Transformer Trackers [18.615714086028632]
新しいトランスフォーマーネットワークはオブジェクトトラッキングパイプラインに統合され、最新のベンチマークで強いパフォーマンスを示している。
本稿では, 逆攻撃におけるトランスフォーマートラッカーの挙動と, パラメータの変化に伴うデータセットの追跡において, 異なる攻撃がどう作用するかを理解することに焦点を当てる。
論文 参考訳(メタデータ) (2024-06-03T20:13:38Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data [14.415796842972563]
本稿では,Deep Neural Networks (DNN) を用いた表型データに対するバックドア攻撃の包括的解析について述べる。
本稿では,ステルス性を維持しつつ攻撃性能に優れるインバウンド攻撃(in-bounds attack)を提案する。
以上の結果から,100%の攻撃成功率を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-13T18:39:44Z) - The Efficacy of Transformer-based Adversarial Attacks in Security
Domains [0.7156877824959499]
システムディフェンダーの対向サンプルに対する変換器のロバスト性およびシステムアタッカーに対する対向強度を評価する。
我々の研究は、セキュリティ領域におけるモデルの攻撃と防御のためにトランスフォーマーアーキテクチャを研究することの重要性を強調している。
論文 参考訳(メタデータ) (2023-10-17T21:45:23Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Imperceptible and Robust Backdoor Attack in 3D Point Cloud [62.992167285646275]
本稿では、この課題に対処するために、新しい非受容的で堅牢なバックドアアタック(IRBA)を提案する。
我々は、重み付き局所変換(WLT)と呼ばれる非線形局所変換を用いて、ユニークな変換を持つ有毒試料を構築する。
3つのベンチマークデータセットと4つのモデルによる実験により、IRBAは前処理技術でもほとんどの場合80%以上のASRを達成することが示された。
論文 参考訳(メタデータ) (2022-08-17T03:53:10Z) - The Nuts and Bolts of Adopting Transformer in GANs [124.30856952272913]
高忠実度画像合成のためのGAN(Generative Adversarial Network)フレームワークにおけるTransformerの特性について検討する。
我々の研究は、STrans-Gと呼ばれる畳み込みニューラルネットワーク(CNN)フリージェネレータであるGANにおけるトランスフォーマーの新しい代替設計につながる。
論文 参考訳(メタデータ) (2021-10-25T17:01:29Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。