論文の概要: Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection
- arxiv url: http://arxiv.org/abs/2407.12292v1
- Date: Wed, 17 Jul 2024 03:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:38:37.199650
- Title: Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection
- Title(参考訳): あらゆる標的を攻撃可能:一般の潜伏感染による敵対的事例生成
- Authors: Youheng Sun, Shengming Yuan, Xuanhan Wang, Lianli Gao, Jingkuan Song,
- Abstract要約: GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
- 参考スコア(独自算出の注目度): 83.72430401516674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Targeted adversarial attack, which aims to mislead a model to recognize any image as a target object by imperceptible perturbations, has become a mainstream tool for vulnerability assessment of deep neural networks (DNNs). Since existing targeted attackers only learn to attack known target classes, they cannot generalize well to unknown classes. To tackle this issue, we propose $\bf{G}$eneralized $\bf{A}$dversarial attac$\bf{KER}$ ($\bf{GAKer}$), which is able to construct adversarial examples to any target class. The core idea behind GAKer is to craft a latently infected representation during adversarial example generation. To this end, the extracted latent representations of the target object are first injected into intermediate features of an input image in an adversarial generator. Then, the generator is optimized to ensure visual consistency with the input image while being close to the target object in the feature space. Since the GAKer is class-agnostic yet model-agnostic, it can be regarded as a general tool that not only reveals the vulnerability of more DNNs but also identifies deficiencies of DNNs in a wider range of classes. Extensive experiments have demonstrated the effectiveness of our proposed method in generating adversarial examples for both known and unknown classes. Notably, compared with other generative methods, our method achieves an approximately $14.13\%$ higher attack success rate for unknown classes and an approximately $4.23\%$ higher success rate for known classes. Our code is available in https://github.com/VL-Group/GAKer.
- Abstract(参考訳): 知覚不能な摂動によって任意のイメージをターゲットオブジェクトとして認識するモデルを誤解させるターゲット敵攻撃は、ディープニューラルネットワーク(DNN)の脆弱性評価の主流となる。
既存のターゲット攻撃者は既知のターゲットクラスを攻撃することしか学ばないため、未知のクラスをうまく一般化することはできない。
この問題に対処するために、ターゲットクラスに対する逆例を構築することができる$\bf{G}$eneralized $\bf{A}$dversarial attac$\bf{KER}$$$$\bf{GAKer}$を提案する。
GAKerの基本的な考え方は、敵のサンプル生成中に感染しがちな表現を作ることだ。
この目的のために、抽出された対象物の潜在表現は、まず、対向生成装置において入力画像の中間特徴に注入される。
そして、特徴空間内の対象物に近づきながら、入力画像との視覚的整合性を確保するために、ジェネレータを最適化する。
GAKerはクラスに依存しないがモデルに依存しないため、より多くのDNNの脆弱性を明らかにするだけでなく、より広い範囲のクラスにおけるDNNの欠陥を特定する一般的なツールと見なすことができる。
大規模実験により, 未知クラスと未知クラスの両方に対して, 逆例を生成する方法の有効性が実証された。
特に,他の生成手法と比較して,未知のクラスに対する攻撃成功率約14.13\%,既知のクラスに対する攻撃成功率約4.23\%を達成する。
私たちのコードはhttps://github.com/VL-Group/GAKerで利用可能です。
関連論文リスト
- OCGEC: One-class Graph Embedding Classification for DNN Backdoor Detection [18.11795712499763]
本研究では,一クラスグラフ埋め込み分類(OCGEC)と呼ばれる新しい一クラス分類フレームワークを提案する。
OCGECは、少量のクリーンデータだけでモデルレベルのバックドア検出にGNNを使用する。
他のベースラインと比較して、AUCのスコアは、多くのタスクで98%以上である。
論文 参考訳(メタデータ) (2023-12-04T02:48:40Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Gradient Concealment: Free Lunch for Defending Adversarial Attacks [18.98319703484334]
提案するプラグ・アンド・プレイ層は, トレーニング不要で, 勾配の脆弱な方向を隠蔽し, 推論時の分類精度を保証している。
GCMはImageNet分類ベンチマークで優れた防衛結果を報告し、敵の入力に直面すると63.41%のトップ1攻撃(AR)が改善された。
我々は、CVPR 2022 Robust Classification ChallengeでGCMを使用し、現在、第2フェーズでtextbf2を達成しており、ConvNextの小さなバージョンしかありません。
論文 参考訳(メタデータ) (2022-05-21T15:02:56Z) - Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks [19.443306494201334]
我々は,攻撃者の目的の直感に従って,攻撃対象のホワイトボックスを攻撃対象とするいくつかのイノベーションを紹介した。
まず,ターゲット攻撃の目的を明確に把握する新たな損失関数を提案する。
第2に,誤分類対象と$L_infty$距離制限の両方を捉えた損失関数のさらなる改良版を用いた新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T17:36:58Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。