論文の概要: Defending Backdoor Attacks on Vision Transformer via Patch Processing
- arxiv url: http://arxiv.org/abs/2206.12381v1
- Date: Fri, 24 Jun 2022 17:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 14:50:42.867553
- Title: Defending Backdoor Attacks on Vision Transformer via Patch Processing
- Title(参考訳): パッチ処理による視覚変換器のバックドア攻撃防止
- Authors: Khoa D. Doan, Yingjie Lao, Peng Yang, Ping Li
- Abstract要約: ViT(Vision Transformers)は、畳み込みニューラルネットワークよりもはるかに少ない帰納バイアスを持つ、根本的に異なるアーキテクチャである。
本稿では,バックドア攻撃(バックドア攻撃)の代表的因果攻撃について検討する。
本稿では,パッチベースとブレンディングベースの両方で,パッチ処理によるバックドア攻撃を効果的に防御する手法を提案する。
- 参考スコア(独自算出の注目度): 18.50522247164383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision Transformers (ViTs) have a radically different architecture with
significantly less inductive bias than Convolutional Neural Networks. Along
with the improvement in performance, security and robustness of ViTs are also
of great importance to study. In contrast to many recent works that exploit the
robustness of ViTs against adversarial examples, this paper investigates a
representative causative attack, i.e., backdoor. We first examine the
vulnerability of ViTs against various backdoor attacks and find that ViTs are
also quite vulnerable to existing attacks. However, we observe that the
clean-data accuracy and backdoor attack success rate of ViTs respond
distinctively to patch transformations before the positional encoding. Then,
based on this finding, we propose an effective method for ViTs to defend both
patch-based and blending-based trigger backdoor attacks via patch processing.
The performances are evaluated on several benchmark datasets, including
CIFAR10, GTSRB, and TinyImageNet, which show the proposed novel defense is very
successful in mitigating backdoor attacks for ViTs. To the best of our
knowledge, this paper presents the first defensive strategy that utilizes a
unique characteristic of ViTs against backdoor attacks.
- Abstract(参考訳): 視覚トランスフォーマー(vits)は畳み込みニューラルネットワークとは大きく異なるアーキテクチャを持ち、帰納的バイアスがかなり少ない。
パフォーマンスの向上に加えて、ViTのセキュリティと堅牢性も研究にとって非常に重要である。
敵の事例に対するViTsの堅牢性を利用した最近の多くの研究とは対照的に,本論文ではバックドアの代表的な因果攻撃について検討する。
まず,様々なバックドア攻撃に対するvitsの脆弱性を調査し,既存の攻撃に対してvitsが極めて脆弱であることを確認した。
しかし,ViTのクリーンデータ精度とバックドア攻撃成功率は,位置符号化前のパッチ変換に顕著に反応する。
そこで本研究では,パッチベースとブレンディングベースの両方で,パッチ処理によるバックドア攻撃を効果的に防御する手法を提案する。
CIFAR10、GTSRB、TinyImageNetなど、いくつかのベンチマークデータセットで評価され、提案された新規防衛は、ViTに対するバックドア攻撃を緩和するのに非常に成功したことを示している。
本報告では, バックドア攻撃に対して, ViT の特徴を生かした最初の防衛戦略について述べる。
関連論文リスト
- Using Interleaved Ensemble Unlearning to Keep Backdoors at Bay for Finetuning Vision Transformers [0.0]
ビジョントランスフォーマー(ViT)はコンピュータビジョンタスクで人気を博している。
推論中のモデルで望ましくない振る舞いを引き起こすバックドア攻撃は、ViTのパフォーマンスを脅かす。
バックドアデータセット上でクリーンなViTを微調整するInterleaved Ensemble Unlearning(IEU)を提案する。
論文 参考訳(メタデータ) (2024-10-01T23:33:59Z) - Query-Efficient Hard-Label Black-Box Attack against Vision Transformers [9.086983253339069]
ビジョントランスフォーマー(ViT)は、ディープ畳み込みニューラルネットワーク(CNN)として敵対的攻撃から同様のセキュリティリスクに直面している
本稿では,ブラックボックスシナリオ下での敵攻撃に対するViTsの脆弱性について検討する。
本稿では,AdvViTと呼ばれる新しいクエリ効率の高いハードラベル逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T10:09:12Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - TrojViT: Trojan Insertion in Vision Transformers [16.86004410531673]
視覚変換器(ViT)は、様々な視覚関連タスクにおける最先端の性能を実証している。
本稿では,ステルスで実用的なViT固有のバックドアアタックであるTrojViT$を提案する。
我々は、TrojViTがターゲットクラスに99.64%のテストイメージを分類できることを示す。
論文 参考訳(メタデータ) (2022-08-27T16:19:26Z) - Backdoor Attacks on Vision Transformers [20.561738561479203]
ビジュアルトランスフォーマー(ViT)はバックドア攻撃に対して脆弱であることを示す。
本稿では,ViTの攻撃成功率を大きなマージンで低減するテストタイム・イメージ・ブロッキング・ディフェンスを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:55:32Z) - Patch-Fool: Are Vision Transformers Always Robust Against Adversarial
Perturbations? [21.32962679185015]
ビジョントランスフォーマー(ViT)は、ビジョンタスクにおける記録的なパフォーマンスのおかげで、ニューラルアーキテクチャ設計の新しい波を最近開始した。
最近の研究によると、ViTsは畳み込みニューラルネットワーク(CNN)と比較して敵の攻撃に対してより堅牢である。
本稿では,Patch-Foolと呼ばれる攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:45:59Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - On Improving Adversarial Transferability of Vision Transformers [97.17154635766578]
視覚変換器(ViT)は、入力画像を、自己注意によるパッチのシーケンスとして処理する。
本稿では,ViTモデルの対角的特徴空間とその伝達性について検討する。
本稿では,ViTモデルのアーキテクチャに特有な2つの新しい戦略を紹介する。
論文 参考訳(メタデータ) (2021-06-08T08:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。