論文の概要: Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers
- arxiv url: http://arxiv.org/abs/2405.10612v1
- Date: Fri, 17 May 2024 08:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 16:42:27.389369
- Title: Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers
- Title(参考訳): すべてのプロンプトが安全ではない:事前訓練されたビジョントランスフォーマーに対する切り替え可能なバックドアアタック
- Authors: Sheng Yang, Jiawang Bai, Kuofeng Gao, Yong Yang, Yiming Li, Shu-tao Xia,
- Abstract要約: この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができ、良心的なモデルをバックドアモードに変換することができる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
多様な視覚認識タスクの実験は、切り替え可能なバックドア攻撃の成功を確認し、95%以上の攻撃成功率を達成した。
- 参考スコア(独自算出の注目度): 51.0477382050976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the power of vision transformers, a new learning paradigm, pre-training and then prompting, makes it more efficient and effective to address downstream visual recognition tasks. In this paper, we identify a novel security threat towards such a paradigm from the perspective of backdoor attacks. Specifically, an extra prompt token, called the switch token in this work, can turn the backdoor mode on, i.e., converting a benign model into a backdoored one. Once under the backdoor mode, a specific trigger can force the model to predict a target class. It poses a severe risk to the users of cloud API, since the malicious behavior can not be activated and detected under the benign mode, thus making the attack very stealthy. To attack a pre-trained model, our proposed attack, named SWARM, learns a trigger and prompt tokens including a switch token. They are optimized with the clean loss which encourages the model always behaves normally even the trigger presents, and the backdoor loss that ensures the backdoor can be activated by the trigger when the switch is on. Besides, we utilize the cross-mode feature distillation to reduce the effect of the switch token on clean samples. The experiments on diverse visual recognition tasks confirm the success of our switchable backdoor attack, i.e., achieving 95%+ attack success rate, and also being hard to be detected and removed. Our code is available at https://github.com/20000yshust/SWARM.
- Abstract(参考訳): ビジョントランスフォーマーの力を考えると、事前学習と刺激という新しい学習パラダイムは、下流の視覚認識タスクに対処する上で、より効率的かつ効果的である。
本稿では,バックドア攻撃の観点から,このようなパラダイムに対する新たなセキュリティ脅威を特定する。
具体的には、この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができる。
バックドアモード下では、特定のトリガーがモデルにターゲットクラスの予測を強制することができる。
悪意のある動作をアクティベートできず、良心的なモードで検出できないため、クラウドAPIのユーザには深刻なリスクが伴うため、攻撃は非常にステルス的になる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
それらはクリーンな損失によって最適化され、モデルは常にトリガーの現在まで正常に動作し、バックドアの損失はスイッチのオン時にトリガーによってアクティベートされる。
さらに, 切替トークンがクリーンサンプルに与える影響を低減するため, クロスモード式蒸留法を応用した。
多様な視覚認識タスクの実験は、切り替え可能なバックドアアタック、すなわち95%以上のアタック成功率を達成し、検出および除去が困難であることを示す。
私たちのコードはhttps://github.com/20000yshust/SWARM.comから入手可能です。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Dual-Key Multimodal Backdoors for Visual Question Answering [26.988750557552983]
マルチモーダルネットワークは、Dual-Key Multimodal Backdoorsと呼ばれる新しいタイプの攻撃に対して脆弱であることを示す。
この攻撃は、最先端のネットワークが使用する複雑な融合機構を利用して、効果的でステルス的なバックドアを埋め込む。
本稿では,視覚的質問応答(VQA)タスクにおけるマルチモーダルバックドアについて,複数のアーキテクチャと視覚的特徴バックボーンを用いた広範な検討を行う。
論文 参考訳(メタデータ) (2021-12-14T18:59:52Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Input-Aware Dynamic Backdoor Attack [9.945411554349276]
近年、ニューラルネットワークのバックドア攻撃は、ディープラーニングシステムに対する潜在的なセキュリティ脅威と考えられている。
現在のバックドア技術は、現在の防御方法によって容易に検出され緩和される一様トリガーパターンに依存している。
本稿では,入力から入力までのトリガーが異なる新しいバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T03:57:12Z) - Don't Trigger Me! A Triggerless Backdoor Attack Against Deep Neural
Networks [22.28270345106827]
現在の最先端のバックドア攻撃では、ターゲットモデルがバックドアをアクティベートするために入力を変更する必要がある。
このトリガーは物理世界でのバックドア攻撃の難易度を高めるだけでなく、複数の防御機構によって容易に検出できる。
我々は、バックドアをトリガーする入力を変更する必要のない、ディープニューラルネットワークに対する最初のトリガーレスバックドア攻撃を示す。
論文 参考訳(メタデータ) (2020-10-07T09:01:39Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。