論文の概要: General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments
- arxiv url: http://arxiv.org/abs/2212.05387v1
- Date: Sun, 11 Dec 2022 01:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:29:34.126833
- Title: General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments
- Title(参考訳): ピクセルレベルと特徴レベル分布アライメントによるブラックボックス攻撃に対する一般敵防御
- Authors: Xiaogang Xu, Hengshuang Zhao, Philip Torr, Jiaya Jia
- Abstract要約: 我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
- 参考スコア(独自算出の注目度): 75.58342268895564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are vulnerable to the black-box adversarial
attack that is highly transferable. This threat comes from the distribution gap
between adversarial and clean samples in feature space of the target DNNs. In
this paper, we use Deep Generative Networks (DGNs) with a novel training
mechanism to eliminate the distribution gap. The trained DGNs align the
distribution of adversarial samples with clean ones for the target DNNs by
translating pixel values. Different from previous work, we propose a more
effective pixel level training constraint to make this achievable, thus
enhancing robustness on adversarial samples. Further, a class-aware
feature-level constraint is formulated for integrated distribution alignment.
Our approach is general and applicable to multiple tasks, including image
classification, semantic segmentation, and object detection. We conduct
extensive experiments on different datasets. Our strategy demonstrates its
unique effectiveness and generality against black-box attacks.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、高い転送性を持つブラックボックス攻撃に対して脆弱である。
この脅威は、ターゲットDNNの機能空間における敵とクリーンなサンプルの分布ギャップから生じる。
本稿では,分布ギャップを解消するための新しい学習機構を備えた深層生成ネットワーク(dgns)を提案する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
従来とは違って,より効果的な画素レベルのトレーニング制約を提案し,対向サンプルの堅牢性を向上する。
さらに、統合分布アライメントのためにクラス対応特徴レベル制約を定式化する。
本手法は,画像分類,意味セグメンテーション,オブジェクト検出など,複数のタスクに適用可能な汎用的手法である。
異なるデータセットに対して広範な実験を行う。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を示している。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Robustness Against Adversarial Attacks via Learning Confined Adversarial
Polytopes [0.0]
ディープニューラルネットワーク(DNN)は、クリーンサンプルの人間の知覚できない摂動を発生させることによって、騙される可能性がある。
本稿では,クリーンサンプルに追加されるノルム束縛摂動によって到達可能な出力のセットを制限することで,堅牢なDNNの訓練を目指す。
論文 参考訳(メタデータ) (2024-01-15T22:31:15Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。