論文の概要: Colored Noise Injection for Training Adversarially Robust Neural
Networks
- arxiv url: http://arxiv.org/abs/2003.02188v2
- Date: Fri, 20 Mar 2020 12:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:04:44.803727
- Title: Colored Noise Injection for Training Adversarially Robust Neural
Networks
- Title(参考訳): 敵対的ロバストニューラルネットワークの訓練のためのカラーノイズインジェクション
- Authors: Evgenii Zheltonozhskii, Chaim Baskin, Yaniv Nemcovsky, Brian Chmiel,
Avi Mendelson, Alex M. Bronstein
- Abstract要約: 本研究では,ネットワークの重み付けとアクティベーションに白色ガウス雑音を加えるという考え方を拡張した。
CIFAR-10 と CIFAR-100 データセットの逆精度の観点から,本手法は PNI と様々な従来手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 8.32222443776278
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Even though deep learning has shown unmatched performance on various tasks,
neural networks have been shown to be vulnerable to small adversarial
perturbations of the input that lead to significant performance degradation. In
this work we extend the idea of adding white Gaussian noise to the network
weights and activations during adversarial training (PNI) to the injection of
colored noise for defense against common white-box and black-box attacks. We
show that our approach outperforms PNI and various previous approaches in terms
of adversarial accuracy on CIFAR-10 and CIFAR-100 datasets. In addition, we
provide an extensive ablation study of the proposed method justifying the
chosen configurations.
- Abstract(参考訳): ディープラーニングは様々なタスクで不整合性能を示すが、ニューラルネットワークは入力の小さな逆方向の摂動に弱いことが示され、性能が著しく低下する。
本研究は,一般のホワイトボックス攻撃やブラックボックス攻撃に対する防御のためのカラーノイズ注入に対して,ネットワーク重み付けとPNI時の活性化に白色ガウスノイズを加えるという考え方を拡張した。
CIFAR-10 と CIFAR-100 データセットの逆精度の観点から,本手法は PNI と様々な従来手法より優れていることを示す。
また,提案手法が選択した構成を正当化するための広範囲なアブレーション実験を行った。
関連論文リスト
- Learning Robust Kernel Ensembles with Kernel Average Pooling [3.6540368812166872]
本稿では,階層活性化テンソルのカーネル次元に沿って平均フィルタを適用するニューラルネットワーク構築ブロックであるKernel Average Pooling(KAP)を紹介する。
類似機能を持つカーネルのアンサンブルは、KAPを装備した畳み込みニューラルネットワークにおいて自然に出現し、バックプロパゲーションで訓練されることを示す。
論文 参考訳(メタデータ) (2022-09-30T19:49:14Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Multiplicative Reweighting for Robust Neural Network Optimization [51.67267839555836]
MW(multiplicative weight)更新は、専門家のアドバイスにより、適度なデータ破損に対して堅牢である。
MWはラベルノイズの存在下でニューラルネットワークの精度を向上することを示す。
論文 参考訳(メタデータ) (2021-02-24T10:40:25Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。