論文の概要: Input-Aware Dynamic Backdoor Attack
- arxiv url: http://arxiv.org/abs/2010.08138v1
- Date: Fri, 16 Oct 2020 03:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:50:51.734816
- Title: Input-Aware Dynamic Backdoor Attack
- Title(参考訳): 入力型動的バックドア攻撃
- Authors: Anh Nguyen and Anh Tran
- Abstract要約: 近年、ニューラルネットワークのバックドア攻撃は、ディープラーニングシステムに対する潜在的なセキュリティ脅威と考えられている。
現在のバックドア技術は、現在の防御方法によって容易に検出され緩和される一様トリガーパターンに依存している。
本稿では,入力から入力までのトリガーが異なる新しいバックドア攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 9.945411554349276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, neural backdoor attack has been considered to be a potential
security threat to deep learning systems. Such systems, while achieving the
state-of-the-art performance on clean data, perform abnormally on inputs with
predefined triggers. Current backdoor techniques, however, rely on uniform
trigger patterns, which are easily detected and mitigated by current defense
methods. In this work, we propose a novel backdoor attack technique in which
the triggers vary from input to input. To achieve this goal, we implement an
input-aware trigger generator driven by diversity loss. A novel cross-trigger
test is applied to enforce trigger nonreusablity, making backdoor verification
impossible. Experiments show that our method is efficient in various attack
scenarios as well as multiple datasets. We further demonstrate that our
backdoor can bypass the state of the art defense methods. An analysis with a
famous neural network inspector again proves the stealthiness of the proposed
attack. Our code is publicly available at
https://github.com/VinAIResearch/input-aware-backdoor-attack-release.
- Abstract(参考訳): 近年、ニューラルネットワークのバックドア攻撃は、ディープラーニングシステムに対する潜在的なセキュリティ脅威と考えられている。
このようなシステムはクリーンなデータで最先端のパフォーマンスを実現しつつ、事前に定義されたトリガーで入力を異常に実行する。
しかし、現在のバックドア技術は均一なトリガーパターンに依存しており、現在の防御方法によって容易に検出され緩和される。
本研究では,入力から入力までのトリガが異なる新しいバックドア攻撃手法を提案する。
この目的を達成するために、多様性の損失によって駆動される入力対応トリガ発生器を実装した。
新たなクロストリガー試験が適用され、非可逆性を強制し、バックドアの検証が不可能となる。
実験の結果,本手法は様々な攻撃シナリオや複数のデータセットにおいて有効であることがわかった。
我々はさらに,我々のバックドアが技術防衛手法の状態をバイパスできることを実証する。
有名なニューラルネットワークインスペクタによる分析は、提案された攻撃のステルス性を再び証明する。
私たちのコードはhttps://github.com/vinairesearch/input-aware-backdoor-attack-releaseで公開されています。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z) - Deep Feature Space Trojan Attack of Neural Networks by Controlled
Detoxification [21.631699720855995]
トロイの木馬攻撃(Trojan attack)は、ディープニューラルネットワークに対する敵攻撃の一種である。
5つの特徴を持つ新しい深部特徴空間トロイの木馬攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-21T09:46:12Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。