論文の概要: Defending Adversarial Examples via DNN Bottleneck Reinforcement
- arxiv url: http://arxiv.org/abs/2008.05230v1
- Date: Wed, 12 Aug 2020 11:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 05:32:48.779072
- Title: Defending Adversarial Examples via DNN Bottleneck Reinforcement
- Title(参考訳): DNNボトルネック補強による敵防御事例
- Authors: Wenqing Liu, Miaojing Shi, Teddy Furon, Li Li
- Abstract要約: 本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
- 参考スコア(独自算出の注目度): 20.08619981108837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a DNN bottleneck reinforcement scheme to alleviate the
vulnerability of Deep Neural Networks (DNN) against adversarial attacks.
Typical DNN classifiers encode the input image into a compressed latent
representation more suitable for inference. This information bottleneck makes a
trade-off between the image-specific structure and class-specific information
in an image. By reinforcing the former while maintaining the latter, any
redundant information, be it adversarial or not, should be removed from the
latent representation. Hence, this paper proposes to jointly train an
auto-encoder (AE) sharing the same encoding weights with the visual classifier.
In order to reinforce the information bottleneck, we introduce the multi-scale
low-pass objective and multi-scale high-frequency communication for better
frequency steering in the network. Unlike existing approaches, our scheme is
the first reforming defense per se which keeps the classifier structure
untouched without appending any pre-processing head and is trained with clean
images only. Extensive experiments on MNIST, CIFAR-10 and ImageNet demonstrate
the strong defense of our method against various adversarial attacks.
- Abstract(参考訳): 本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するために,DNNのボトルネック強化手法を提案する。
典型的なDNN分類器は、入力画像を推論に適した圧縮潜在表現にエンコードする。
この情報ボトルネックは、画像内の画像固有の構造とクラス固有の情報とのトレードオフをもたらす。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
そこで本稿では,同じ符号化重みを視覚分類器と共有するオートエンコーダ(AE)を共同で訓練することを提案する。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
既存の手法とは異なり,本方式は,前処理ヘッドを付加することなく分類器構造を無修正に保ち,クリーン画像のみを訓練する最初の再設計防御方式である。
MNIST, CIFAR-10 および ImageNet の広範囲にわたる実験により, 本手法の様々な攻撃に対する強力な防御効果が示された。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - DeepCert: Verification of Contextually Relevant Robustness for Neural
Network Image Classifiers [16.893762648621266]
我々はディープニューラルネットワーク(DNN)画像分類器の頑健さを文脈的に関連する摂動に検証するためのツール支援のDeepCertを紹介する。
論文 参考訳(メタデータ) (2021-03-02T10:41:16Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Approximate Manifold Defense Against Multiple Adversarial Perturbations [16.03297438135047]
多様体ベースのディフェンスは、クリーンなデータ多様体に入力サンプルを投影する生成ネットワークを組み込む。
本研究では,画像分類のための近似多様体防衛機構であるRBF-CNNを考案する。
MNISTとCIFAR-10データセットの実験結果は、RBF-CNNが敵の訓練を必要とせずに複数の摂動に対して堅牢性を提供することを示している。
論文 参考訳(メタデータ) (2020-04-05T12:36:08Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z) - Code-Bridged Classifier (CBC): A Low or Negative Overhead Defense for
Making a CNN Classifier Robust Against Adversarial Attacks [13.813609420433238]
我々は,畳み込みニューラルネットワークを敵攻撃に対して堅牢にするためのフレームワークであるCode-Bridged (CBC)を提案する。
このネットワークは, 敵の例に対してより堅牢であると同時に, 従来よりも計算処理の複雑さが著しく低いことを示す。
論文 参考訳(メタデータ) (2020-01-16T22:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。