論文の概要: Ensemble Generative Cleaning with Feedback Loops for Defending
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2004.11273v1
- Date: Thu, 23 Apr 2020 16:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:56:32.573290
- Title: Ensemble Generative Cleaning with Feedback Loops for Defending
Adversarial Attacks
- Title(参考訳): 対向攻撃を防御するためのフィードバックループを用いたアンサンブル生成洗浄
- Authors: Jianhe Yuan and Zhihai He
- Abstract要約: 深層ニューラルネットワークを効果的に防御するためのフィードバックループ(EGC-FL)を用いたアンサンブル生成クリーニング法を開発した。
実験の結果,白箱攻撃と黒箱攻撃の双方において,最先端の手法が大きなマージンで改善されることが示されている。
- 参考スコア(独自算出の注目度): 29.36327697150732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective defense of deep neural networks against adversarial attacks remains
a challenging problem, especially under powerful white-box attacks. In this
paper, we develop a new method called ensemble generative cleaning with
feedback loops (EGC-FL) for effective defense of deep neural networks. The
proposed EGC-FL method is based on two central ideas. First, we introduce a
transformed deadzone layer into the defense network, which consists of an
orthonormal transform and a deadzone-based activation function, to destroy the
sophisticated noise pattern of adversarial attacks. Second, by constructing a
generative cleaning network with a feedback loop, we are able to generate an
ensemble of diverse estimations of the original clean image. We then learn a
network to fuse this set of diverse estimations together to restore the
original image. Our extensive experimental results demonstrate that our
approach improves the state-of-art by large margins in both white-box and
black-box attacks. It significantly improves the classification accuracy for
white-box PGD attacks upon the second best method by more than 29% on the SVHN
dataset and more than 39% on the challenging CIFAR-10 dataset.
- Abstract(参考訳): 敵対的攻撃に対するディープニューラルネットワークの効果的な防御は、特に強力なホワイトボックス攻撃下では難しい問題である。
本稿では,深いニューラルネットワークを効果的に防御するためのフィードバックループ(EGC-FL)を用いたアンサンブル生成クリーニング法を提案する。
EGC-FL法は2つの中心概念に基づいている。
まず,正規正規変換とデッドゾーンベースのアクティベーション関数からなる防御ネットワークに変換されたデッドゾーン層を導入し,敵攻撃の洗練されたノイズパターンを破壊する。
第2に,フィードバックループを有する生成的クリーニングネットワークを構築することにより,元のクリーニング画像の多様な推定をアンサンブルで生成することができる。
次に、この多様な見積もりを融合して元の画像を復元するネットワークを学習する。
実験の結果,ホワイトボックス攻撃とブラックボックス攻撃の両方において,最先端の手法が大きなマージンで改善できることが判明した。
これは、svhnデータセットでは29%以上、挑戦的なcifar-10データセットでは39%以上、ホワイトボックスpgd攻撃の分類精度を大幅に向上させる。
関連論文リスト
- Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout [8.24029748310858]
本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T06:36:38Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Protecting Against Image Translation Deepfakes by Leaking Universal
Perturbations from Black-Box Neural Networks [37.91090081295844]
我々は,ブラックボックス画像翻訳深度生成システムの効率よく破壊する手法を開発した。
分類ブラックボックス攻撃の単純適応により、現実世界における画像翻訳システムに対するクエリの禁止数が増加する。
本稿では,画像の攻撃に要するクエリ数を大幅に削減する,フラストレーションに富んだ,かつ高効率なアルゴリズムであるLUP(Universal Perturbations)を提案する。
論文 参考訳(メタデータ) (2020-06-11T15:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。