論文の概要: Corrupting Data to Remove Deceptive Perturbation: Using Preprocessing
Method to Improve System Robustness
- arxiv url: http://arxiv.org/abs/2201.01399v1
- Date: Wed, 5 Jan 2022 00:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 18:36:47.136633
- Title: Corrupting Data to Remove Deceptive Perturbation: Using Preprocessing
Method to Improve System Robustness
- Title(参考訳): データの不正化による欺きの摂動除去--システムロバスト性向上のための前処理法
- Authors: Hieu Le, Hans Walker, Dung Tran, Peter Chin
- Abstract要約: 近年の研究では、微妙な雑音を加えることで、よく訓練されたネットワークを騙すことができることが示されている。
本稿では,自然学習型分類器上にリカバリ処理を適用することにより,ニューラルネットワークのロバスト性を改善する新しい手法を提案する。
その結果,本手法は自然学習ネットワークの性能を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep neural networks have achieved great performance on
classification tasks, recent studies showed that well trained networks can be
fooled by adding subtle noises. This paper introduces a new approach to improve
neural network robustness by applying the recovery process on top of the
naturally trained classifier. In this approach, images will be intentionally
corrupted by some significant operator and then be recovered before passing
through the classifiers. SARGAN -- an extension on Generative Adversarial
Networks (GAN) is capable of denoising radar signals. This paper will show that
SARGAN can also recover corrupted images by removing the adversarial effects.
Our results show that this approach does improve the performance of naturally
trained networks.
- Abstract(参考訳): ディープニューラルネットワークは分類タスクにおいて優れた性能を発揮してきたが、最近の研究では、十分に訓練されたネットワークは微妙なノイズを加えることで騙されることが示された。
本稿では,自然学習型分類器上にリカバリ処理を適用することにより,ニューラルネットワークの堅牢性を改善する新しい手法を提案する。
このアプローチでは、画像は意図的に重要なオペレータによって破壊され、分類器を通過する前に復元される。
SARGAN - GAN(Generative Adversarial Networks)の拡張機能で、レーダー信号を識別することができる。
本稿では,SARGANが逆効果を取り除き,劣化画像の復元も可能であることを示す。
本研究では,本手法が自然学習ネットワークの性能を向上させることを示す。
関連論文リスト
- Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z) - Fidelity Estimation Improves Noisy-Image Classification with Pretrained
Networks [12.814135905559992]
本稿では,事前学習した分類器に適用可能な手法を提案する。
提案手法では,特徴抽出器の内部表現に融合した忠実度マップの推定値を利用する。
オラクルの忠実度マップを用いた場合, ノイズや復元画像のトレーニングにおいて, 完全に再トレーニングされた手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-01T17:58:32Z) - Learning degraded image classification with restoration data fidelity [0.0]
広く使用されている4つの分類ネットワークにおける分解型およびレベルの影響について検討する。
本稿では,事前学習したネットワークで得られた画像特徴を忠実度マップを用いて校正する手法を提案する。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。
論文 参考訳(メタデータ) (2021-01-23T23:47:03Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。