論文の概要: Phase-shifted Adversarial Training
- arxiv url: http://arxiv.org/abs/2301.04785v3
- Date: Wed, 23 Aug 2023 09:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 18:37:39.794096
- Title: Phase-shifted Adversarial Training
- Title(参考訳): 位相シフトadversarial training
- Authors: Yeachan Kim, Seongyeon Kim, Ihyeok Seo, Bonggun Shin
- Abstract要約: 反応周波数のレンズによる対向訓練の挙動を解析する。
PhaseATは高周波情報の収束を著しく改善する。
これにより、モデルが各データ付近でスムーズな予測を行うことで、対向ロバスト性を向上させることができる。
- 参考スコア(独自算出の注目度): 8.89749787668458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial training has been considered an imperative component for safely
deploying neural network-based applications to the real world. To achieve
stronger robustness, existing methods primarily focus on how to generate strong
attacks by increasing the number of update steps, regularizing the models with
the smoothed loss function, and injecting the randomness into the attack.
Instead, we analyze the behavior of adversarial training through the lens of
response frequency. We empirically discover that adversarial training causes
neural networks to have low convergence to high-frequency information,
resulting in highly oscillated predictions near each data. To learn
high-frequency contents efficiently and effectively, we first prove that a
universal phenomenon of frequency principle, i.e., \textit{lower frequencies
are learned first}, still holds in adversarial training. Based on that, we
propose phase-shifted adversarial training (PhaseAT) in which the model learns
high-frequency components by shifting these frequencies to the low-frequency
range where the fast convergence occurs. For evaluations, we conduct the
experiments on CIFAR-10 and ImageNet with the adaptive attack carefully
designed for reliable evaluation. Comprehensive results show that PhaseAT
significantly improves the convergence for high-frequency information. This
results in improved adversarial robustness by enabling the model to have
smoothed predictions near each data.
- Abstract(参考訳): 敵のトレーニングは、ニューラルネットワークベースのアプリケーションを現実世界に安全にデプロイするための必須コンポーネントと考えられている。
強い堅牢性を達成するために、既存の手法は主に、更新ステップの数を増やし、スムーズな損失関数でモデルを正規化し、攻撃にランダム性を注入することで、強力な攻撃を生成する方法に焦点を当てている。
代わりに、反応周波数のレンズを通して、敵の訓練の挙動を分析する。
我々は,ニューラルネットワークが高頻度情報への収束度を低くし,各データ付近で高い振動の予測を行うことを示す。
高周波コンテンツを効率的に効果的に学習するために,まず周波数原理の普遍的な現象,すなわち,逆の訓練において依然として保持されていることを証明する。
そこで本研究では,これらの周波数を高速収束が起こる低周波域にシフトさせることで,高周波数成分を学習する位相シフト逆トレーニング(PhaseAT)を提案する。
評価のために,CIFAR-10 と ImageNet を用いて,信頼性評価のための適応攻撃を慎重に設計した実験を行った。
総合的な結果は、phaseatは高周波情報の収束を著しく改善していることを示している。
これにより、モデルが各データ付近でスムーズな予測を行えるようにすることで、対向ロバスト性が改善される。
関連論文リスト
- Correlation Analysis of Adversarial Attack in Time Series Classification [6.117704456424016]
本研究では,時系列分類モデルの攻撃に対する脆弱性について検討した。
攻撃の有効性を高めるため、正規化技術とノイズ導入が示されている。
世界情報を優先するように設計されたモデルは、敵の操作に対する抵抗が大きいことが判明した。
論文 参考訳(メタデータ) (2024-08-21T01:11:32Z) - Exploring Frequencies via Feature Mixing and Meta-Learning for Improving Adversarial Transferability [26.159434438078968]
両試料の周波数特性を生かした周波数分解型特徴混合法を提案する。
本研究は, クリーンサンプルの特徴を, 敵の例から抽出した敵の特徴に組み込むことが, 正常に訓練されたモデルに対する攻撃に有効であることが示唆された。
本稿では,メタトレインステップ,メタテストステップ,最終更新を含むクロス周波数メタ最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T06:32:58Z) - The Effectiveness of Random Forgetting for Robust Generalization [21.163070161951868]
我々は,FOMO(Fordt to Mitigate Overfitting)と呼ばれる新しい学習パラダイムを導入する。
FOMOは、重みのサブセットをランダムに忘れる忘れ相と、一般化可能な特徴の学習を強調する再学習相とを交互に扱う。
実験の結果, FOMOは最良と最終ロバストなテスト精度のギャップを大幅に減らし, 頑健なオーバーフィッティングを緩和することがわかった。
論文 参考訳(メタデータ) (2024-02-18T23:14:40Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Guided Interpolation for Adversarial Training [73.91493448651306]
トレーニングが進むにつれて、トレーニングデータは徐々に攻撃しやすくなり、堅牢性の向上が損なわれる。
本稿では,前時代のメタ情報を用いて,データの逆変換をガイドするguided framework(gif)を提案する。
バニラミキサアップと比較すると、GIFは攻撃可能なデータの比率を高くすることができ、堅牢性向上に有効である。
論文 参考訳(メタデータ) (2021-02-15T03:55:08Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Frequency-based Automated Modulation Classification in the Presence of
Adversaries [17.930854969511046]
本稿では、転送可能な対角干渉に耐えられるディープラーニングモデルからなる新しい受信アーキテクチャを提案する。
本研究では、リカレントニューラルネットワーク(RNN)では30%以上、畳み込みニューラルネットワーク(CNN)では50%以上の性能向上を示す。
論文 参考訳(メタデータ) (2020-11-02T17:12:22Z) - Towards Rapid and Robust Adversarial Training with One-Step Attacks [0.0]
敵の訓練は、敵の攻撃に対するニューラルネットワークの堅牢性を高める最も成功した方法である。
本稿では,計算コストの低いFast Gradient Sign Methodを用いて,敵対的学習を可能にする2つのアイデアを提案する。
FGSMをベースとした対向訓練と併用したノイズ注入は、PGDによる対向訓練に匹敵する結果が得られ、より高速であることを示す。
論文 参考訳(メタデータ) (2020-02-24T07:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。