論文の概要: Backdoor Attacks on Vision Transformers
- arxiv url: http://arxiv.org/abs/2206.08477v1
- Date: Thu, 16 Jun 2022 22:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-21 05:55:31.014181
- Title: Backdoor Attacks on Vision Transformers
- Title(参考訳): 視覚トランスフォーマーのバックドア攻撃
- Authors: Akshayvarun Subramanya, Aniruddha Saha, Soroush Abbasi Koohpayegani,
Ajinkya Tejankar, Hamed Pirsiavash
- Abstract要約: ビジュアルトランスフォーマー(ViT)はバックドア攻撃に対して脆弱であることを示す。
本稿では,ViTの攻撃成功率を大きなマージンで低減するテストタイム・イメージ・ブロッキング・ディフェンスを提案する。
- 参考スコア(独自算出の注目度): 20.561738561479203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision Transformers (ViT) have recently demonstrated exemplary performance on
a variety of vision tasks and are being used as an alternative to CNNs. Their
design is based on a self-attention mechanism that processes images as a
sequence of patches, which is quite different compared to CNNs. Hence it is
interesting to study if ViTs are vulnerable to backdoor attacks. Backdoor
attacks happen when an attacker poisons a small part of the training data for
malicious purposes. The model performance is good on clean test images, but the
attacker can manipulate the decision of the model by showing the trigger at
test time. To the best of our knowledge, we are the first to show that ViTs are
vulnerable to backdoor attacks. We also find an intriguing difference between
ViTs and CNNs - interpretation algorithms effectively highlight the trigger on
test images for ViTs but not for CNNs. Based on this observation, we propose a
test-time image blocking defense for ViTs which reduces the attack success rate
by a large margin. Code is available here:
https://github.com/UCDvision/backdoor_transformer.git
- Abstract(参考訳): ビジョントランスフォーマー(ViT)は、最近、様々なビジョンタスクで模範的なパフォーマンスを示し、CNNの代替として使われている。
彼らの設計は、CNNとはかなり異なるパッチのシーケンスとしてイメージを処理する自己認識機構に基づいている。
したがって、ViTsがバックドア攻撃に弱いかどうかを研究することは興味深い。
バックドア攻撃は、攻撃者が悪意のある目的でトレーニングデータのごく一部を毒殺した時に起こる。
モデルパフォーマンスはクリーンなテストイメージでは良好だが、攻撃者はテスト時にトリガーを表示することでモデルの判断を操作できる。
私たちの知る限りでは、ViTsがバックドア攻撃に弱いことを最初に示しています。
また、ViTとCNNの興味深い違いも見出す。解釈アルゴリズムは、ViTのテストイメージのトリガーを効果的に強調するが、CNNには当てはまらない。
そこで本研究では,vitsに対して,攻撃成功率を大きなマージンで低減するテストタイム画像ブロック防御を提案する。
コードはここにある。 https://github.com/UCDvision/backdoor_transformer.git
関連論文リスト
- Using Interleaved Ensemble Unlearning to Keep Backdoors at Bay for Finetuning Vision Transformers [0.0]
ビジョントランスフォーマー(ViT)はコンピュータビジョンタスクで人気を博している。
推論中のモデルで望ましくない振る舞いを引き起こすバックドア攻撃は、ViTのパフォーマンスを脅かす。
バックドアデータセット上でクリーンなViTを微調整するInterleaved Ensemble Unlearning(IEU)を提案する。
論文 参考訳(メタデータ) (2024-10-01T23:33:59Z) - Query-Efficient Hard-Label Black-Box Attack against Vision Transformers [9.086983253339069]
ビジョントランスフォーマー(ViT)は、ディープ畳み込みニューラルネットワーク(CNN)として敵対的攻撃から同様のセキュリティリスクに直面している
本稿では,ブラックボックスシナリオ下での敵攻撃に対するViTsの脆弱性について検討する。
本稿では,AdvViTと呼ばれる新しいクエリ効率の高いハードラベル逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T10:09:12Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - TrojViT: Trojan Insertion in Vision Transformers [16.86004410531673]
視覚変換器(ViT)は、様々な視覚関連タスクにおける最先端の性能を実証している。
本稿では,ステルスで実用的なViT固有のバックドアアタックであるTrojViT$を提案する。
我々は、TrojViTがターゲットクラスに99.64%のテストイメージを分類できることを示す。
論文 参考訳(メタデータ) (2022-08-27T16:19:26Z) - Defending Backdoor Attacks on Vision Transformer via Patch Processing [18.50522247164383]
ViT(Vision Transformers)は、畳み込みニューラルネットワークよりもはるかに少ない帰納バイアスを持つ、根本的に異なるアーキテクチャである。
本稿では,バックドア攻撃(バックドア攻撃)の代表的因果攻撃について検討する。
本稿では,パッチベースとブレンディングベースの両方で,パッチ処理によるバックドア攻撃を効果的に防御する手法を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:29:47Z) - Patch-Fool: Are Vision Transformers Always Robust Against Adversarial
Perturbations? [21.32962679185015]
ビジョントランスフォーマー(ViT)は、ビジョンタスクにおける記録的なパフォーマンスのおかげで、ニューラルアーキテクチャ設計の新しい波を最近開始した。
最近の研究によると、ViTsは畳み込みニューラルネットワーク(CNN)と比較して敵の攻撃に対してより堅牢である。
本稿では,Patch-Foolと呼ばれる攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:45:59Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。