論文の概要: Robust Backdoor Attack with Visible, Semantic, Sample-Specific, and
Compatible Triggers
- arxiv url: http://arxiv.org/abs/2306.00816v1
- Date: Thu, 1 Jun 2023 15:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:56:13.013465
- Title: Robust Backdoor Attack with Visible, Semantic, Sample-Specific, and
Compatible Triggers
- Title(参考訳): Visible, Semantic, Sample-Specific, Compatible Triggers を用いたロバストバックドアアタック
- Authors: Ruotong Wang, Hongrui Chen, Zihao Zhu, Li Liu, Yong Zhang, Yanbo Fan,
Baoyuan Wu
- Abstract要約: ディープニューラルネットワーク(DNN)は、特定のトリガーパターンに晒された場合の特定の振る舞いを示すように操作することができる。
最近の研究は、視覚的なステルス性を確保するために、バックドア攻撃の目に見えないトリガーを設計することに焦点を当てている。
可視性, セマンティック性, サンプル特異性, 適合性トリガー(VSSCトリガー)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 32.91920422523579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) can be manipulated to exhibit specific behaviors
when exposed to specific trigger patterns, without affecting their performance
on normal samples. This type of attack is known as a backdoor attack. Recent
research has focused on designing invisible triggers for backdoor attacks to
ensure visual stealthiness. These triggers have demonstrated strong attack
performance even under backdoor defense, which aims to eliminate or suppress
the backdoor effect in the model. However, through experimental observations,
we have noticed that these carefully designed invisible triggers are often
susceptible to visual distortion during inference, such as Gaussian blurring or
environmental variations in real-world scenarios. This phenomenon significantly
undermines the effectiveness of attacks in practical applications.
Unfortunately, this issue has not received sufficient attention and has not
been thoroughly investigated. To address this limitation, we propose a novel
approach called the Visible, Semantic, Sample-Specific, and Compatible trigger
(VSSC-trigger), which leverages a recent powerful image method known as the
stable diffusion model. In this approach, a text trigger is utilized as a
prompt and combined with a benign image. The resulting combination is then
processed by a pre-trained stable diffusion model, generating a corresponding
semantic object. This object is seamlessly integrated with the original image,
resulting in a new realistic image, referred to as the poisoned image.
Extensive experimental results and analysis validate the effectiveness and
robustness of our proposed attack method, even in the presence of visual
distortion. We believe that the new trigger proposed in this work, along with
the proposed idea to address the aforementioned issues, will have significant
prospective implications for further advancements in this direction.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、通常のサンプルのパフォーマンスに影響を与えることなく、特定のトリガーパターンに露出した場合に特定の振る舞いを示すように操作することができる。
この種の攻撃はバックドア攻撃として知られている。
最近の研究は、視覚的にステルス性を確保するためにバックドア攻撃の目に見えないトリガーを設計することに焦点を当てている。
これらのトリガーはバックドア防御下でも強力な攻撃性能を示しており、モデルにおけるバックドア効果を排除または抑制することを目的としている。
しかし, 実験結果から, 注意して設計した目に見えないトリガーは, ガウスのぼやけや現実のシナリオにおける環境変化など, 推論中の視覚的歪みにしばしば影響を受けやすいことがわかった。
この現象は、実用化における攻撃の有効性を著しく損なう。
残念ながら、この問題には十分な注意が払われておらず、徹底的に調査されていない。
この制限に対処するために, 安定拡散モデルとして知られる最近の強力な画像手法を利用した, 可視, セマンティック, サンプル・スペクティフィック, コンパチブルトリガ (VSSC-トリガー) と呼ばれる新しい手法を提案する。
このアプローチでは、テキストトリガーをプロンプトとして利用し、良性画像と組み合わせる。
得られた組み合わせは、訓練済みの安定拡散モデルによって処理され、対応する意味オブジェクトを生成する。
このオブジェクトは元のイメージとシームレスに統合され、毒画像と呼ばれる新しい現実的なイメージとなる。
大規模な実験結果と解析により,視覚的歪みが存在する場合でも,提案手法の有効性とロバスト性を検証した。
本研究で提案される新たな引き金は、上記の課題に対処する提案とともに、この方向性のさらなる進展に重大な影響を与えるものと信じている。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。