論文の概要: Wavelet Regularization Benefits Adversarial Training
- arxiv url: http://arxiv.org/abs/2206.03727v1
- Date: Wed, 8 Jun 2022 08:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 23:00:05.366485
- Title: Wavelet Regularization Benefits Adversarial Training
- Title(参考訳): ウェーブレット規則化は対人訓練に役立つ
- Authors: Jun Yan, Huilin Yin, Xiaoyang Deng, Ziming Zhao, Wancheng Ge, Hao
Zhang, Gerhard Rigoll
- Abstract要約: 本稿では,ウェーブレット平均プールと呼ばれるハールウェーブレット分解に基づくウェーブレット正規化手法を提案する。
CIFAR-10 と CIFAR-100 のデータセット上で,提案手法は攻撃の種類によってかなりの堅牢性を実現する。
- 参考スコア(独自算出の注目度): 11.157873822750561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training methods are state-of-the-art (SOTA) empirical defense
methods against adversarial examples. Many regularization methods have been
proven to be effective with the combination of adversarial training.
Nevertheless, such regularization methods are implemented in the time domain.
Since adversarial vulnerability can be regarded as a high-frequency phenomenon,
it is essential to regulate the adversarially-trained neural network models in
the frequency domain. Faced with these challenges, we make a theoretical
analysis on the regularization property of wavelets which can enhance
adversarial training. We propose a wavelet regularization method based on the
Haar wavelet decomposition which is named Wavelet Average Pooling. This wavelet
regularization module is integrated into the wide residual neural network so
that a new WideWaveletResNet model is formed. On the datasets of CIFAR-10 and
CIFAR-100, our proposed Adversarial Wavelet Training method realizes
considerable robustness under different types of attacks. It verifies the
assumption that our wavelet regularization method can enhance adversarial
robustness especially in the deep wide neural networks. The visualization
experiments of the Frequency Principle (F-Principle) and interpretability are
implemented to show the effectiveness of our method. A detailed comparison
based on different wavelet base functions is presented. The code is available
at the repository:
\url{https://github.com/momo1986/AdversarialWaveletTraining}.
- Abstract(参考訳): 敵の訓練法は、敵の例に対する最先端(SOTA)実証防御法である。
多くの正規化法は、敵対的訓練の組み合わせで有効であることが証明されている。
しかし、そのような正規化手法は時間領域で実装されている。
adversarial vulnerabilityは高周波現象と見なすことができるため、周波数領域において、adversarial-trained neural networkモデルを調整することが不可欠である。
これらの課題に直面して、敵の訓練を強化することができるウェーブレットの正規化特性に関する理論的解析を行う。
本稿では,ウェーブレット平均プールと呼ばれるハールウェーブレット分解に基づくウェーブレット正規化手法を提案する。
ワイドウェーブレット規則化モジュールを広残留ニューラルネットワークに統合し、新しいワイドウェーブレットResNetモデルを形成する。
CIFAR-10 と CIFAR-100 のデータセット上で,提案手法は攻撃の種類によってかなりの堅牢性を実現する。
これはウェーブレット正則化法が特に深層ニューラルネットワークにおける対角ロバスト性を高めることができるという仮定を検証する。
本手法の有効性を示すために,周波数原理(F-Principle)と解釈可能性の可視化実験を行った。
異なるウェーブレット基底関数に基づく詳細な比較を行った。
コードはリポジトリで入手できる。 \url{https://github.com/momo1986/AdversarialWaveletTraining}。
関連論文リスト
- Adaptive LPD Radar Waveform Design with Generative Deep Learning [6.21540494241516]
本稿では,検出レーダ波形の低確率を適応的に生成する新しい学習手法を提案する。
提案手法では,検出可能性の最大90%を低減できるLPD波形を生成できると同時に,アンビグニティ関数(センシング)特性も向上する。
論文 参考訳(メタデータ) (2024-03-18T21:07:57Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - Phase-shifted Adversarial Training [8.89749787668458]
反応周波数のレンズによる対向訓練の挙動を解析する。
PhaseATは高周波情報の収束を著しく改善する。
これにより、モデルが各データ付近でスムーズな予測を行うことで、対向ロバスト性を向上させることができる。
論文 参考訳(メタデータ) (2023-01-12T02:25:22Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。