論文の概要: Robust Backdoor Attack with Visible, Semantic, Sample-Specific, and
Compatible Triggers
- arxiv url: http://arxiv.org/abs/2306.00816v1
- Date: Thu, 1 Jun 2023 15:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:56:13.013465
- Title: Robust Backdoor Attack with Visible, Semantic, Sample-Specific, and
Compatible Triggers
- Title(参考訳): Visible, Semantic, Sample-Specific, Compatible Triggers を用いたロバストバックドアアタック
- Authors: Ruotong Wang, Hongrui Chen, Zihao Zhu, Li Liu, Yong Zhang, Yanbo Fan,
Baoyuan Wu
- Abstract要約: ディープニューラルネットワーク(DNN)は、特定のトリガーパターンに晒された場合の特定の振る舞いを示すように操作することができる。
最近の研究は、視覚的なステルス性を確保するために、バックドア攻撃の目に見えないトリガーを設計することに焦点を当てている。
可視性, セマンティック性, サンプル特異性, 適合性トリガー(VSSCトリガー)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 32.91920422523579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) can be manipulated to exhibit specific behaviors
when exposed to specific trigger patterns, without affecting their performance
on normal samples. This type of attack is known as a backdoor attack. Recent
research has focused on designing invisible triggers for backdoor attacks to
ensure visual stealthiness. These triggers have demonstrated strong attack
performance even under backdoor defense, which aims to eliminate or suppress
the backdoor effect in the model. However, through experimental observations,
we have noticed that these carefully designed invisible triggers are often
susceptible to visual distortion during inference, such as Gaussian blurring or
environmental variations in real-world scenarios. This phenomenon significantly
undermines the effectiveness of attacks in practical applications.
Unfortunately, this issue has not received sufficient attention and has not
been thoroughly investigated. To address this limitation, we propose a novel
approach called the Visible, Semantic, Sample-Specific, and Compatible trigger
(VSSC-trigger), which leverages a recent powerful image method known as the
stable diffusion model. In this approach, a text trigger is utilized as a
prompt and combined with a benign image. The resulting combination is then
processed by a pre-trained stable diffusion model, generating a corresponding
semantic object. This object is seamlessly integrated with the original image,
resulting in a new realistic image, referred to as the poisoned image.
Extensive experimental results and analysis validate the effectiveness and
robustness of our proposed attack method, even in the presence of visual
distortion. We believe that the new trigger proposed in this work, along with
the proposed idea to address the aforementioned issues, will have significant
prospective implications for further advancements in this direction.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、通常のサンプルのパフォーマンスに影響を与えることなく、特定のトリガーパターンに露出した場合に特定の振る舞いを示すように操作することができる。
この種の攻撃はバックドア攻撃として知られている。
最近の研究は、視覚的にステルス性を確保するためにバックドア攻撃の目に見えないトリガーを設計することに焦点を当てている。
これらのトリガーはバックドア防御下でも強力な攻撃性能を示しており、モデルにおけるバックドア効果を排除または抑制することを目的としている。
しかし, 実験結果から, 注意して設計した目に見えないトリガーは, ガウスのぼやけや現実のシナリオにおける環境変化など, 推論中の視覚的歪みにしばしば影響を受けやすいことがわかった。
この現象は、実用化における攻撃の有効性を著しく損なう。
残念ながら、この問題には十分な注意が払われておらず、徹底的に調査されていない。
この制限に対処するために, 安定拡散モデルとして知られる最近の強力な画像手法を利用した, 可視, セマンティック, サンプル・スペクティフィック, コンパチブルトリガ (VSSC-トリガー) と呼ばれる新しい手法を提案する。
このアプローチでは、テキストトリガーをプロンプトとして利用し、良性画像と組み合わせる。
得られた組み合わせは、訓練済みの安定拡散モデルによって処理され、対応する意味オブジェクトを生成する。
このオブジェクトは元のイメージとシームレスに統合され、毒画像と呼ばれる新しい現実的なイメージとなる。
大規模な実験結果と解析により,視覚的歪みが存在する場合でも,提案手法の有効性とロバスト性を検証した。
本研究で提案される新たな引き金は、上記の課題に対処する提案とともに、この方向性のさらなる進展に重大な影響を与えるものと信じている。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Neural Exec: Learning (and Learning from) Execution Triggers for Prompt Injection Attacks [20.058741696160798]
我々はニューラルエクセルと呼ばれる新しいインジェクション攻撃のファミリーを導入する。
本研究では,実行トリガの生成を識別可能な探索問題として概念化し,学習に基づく手法を用いて自律的に生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-06T15:40:30Z) - VL-Trojan: Multimodal Instruction Backdoor Attacks against
Autoregressive Visual Language Models [65.23688155159398]
VLM(Autoregressive Visual Language Models)は、マルチモーダルなコンテキストにおいて、驚くべき数ショットの学習機能を示す。
近年,マルチモーダル・インストラクション・チューニングが提案されている。
敵は、指示や画像に埋め込まれたトリガーで有毒なサンプルを注入することで、バックドアを埋め込むことができる。
本稿では,マルチモーダルなバックドア攻撃,すなわちVL-Trojanを提案する。
論文 参考訳(メタデータ) (2024-02-21T14:54:30Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Exploring the Universal Vulnerability of Prompt-based Learning Paradigm [21.113683206722207]
素早い学習は、事前学習と微調整のギャップを埋め、数ショット設定で効果的に機能することを発見した。
しかし、この学習パラダイムは、特定のトリガをテキストに挿入することで、モデル予測が誤解されるような事前学習段階から脆弱性を継承することがわかった。
バックドアトリガを注入するか,あるいはプレーンテキストのみを用いて事前学習した言語モデル上での逆トリガを検索することにより,この普遍的な脆弱性を探究する。
論文 参考訳(メタデータ) (2022-04-11T16:34:10Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。