論文の概要: Towards Building More Robust Models with Frequency Bias
- arxiv url: http://arxiv.org/abs/2307.09763v2
- Date: Fri, 28 Jul 2023 01:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 15:10:22.547643
- Title: Towards Building More Robust Models with Frequency Bias
- Title(参考訳): 周波数バイアスを用いたロバストモデルの構築に向けて
- Authors: Qingwen Bu, Dong Huang, Heming Cui
- Abstract要約: 本稿では,中間特徴表現の低周波成分と高周波成分を適応的に再構成するプラグイン・アンド・プレイ・モジュールを提案する。
実験により,提案するモジュールは,任意の対戦型トレーニングフレームワークに容易に組み込むことができることが示された。
- 参考スコア(独自算出の注目度): 8.510441741759758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of deep neural networks to adversarial samples has been a
major impediment to their broad applications, despite their success in various
fields. Recently, some works suggested that adversarially-trained models
emphasize the importance of low-frequency information to achieve higher
robustness. While several attempts have been made to leverage this frequency
characteristic, they have all faced the issue that applying low-pass filters
directly to input images leads to irreversible loss of discriminative
information and poor generalizability to datasets with distinct frequency
features. This paper presents a plug-and-play module called the Frequency
Preference Control Module that adaptively reconfigures the low- and
high-frequency components of intermediate feature representations, providing
better utilization of frequency in robust learning. Empirical studies show that
our proposed module can be easily incorporated into any adversarial training
framework, further improving model robustness across different architectures
and datasets. Additionally, experiments were conducted to examine how the
frequency bias of robust models impacts the adversarial training process and
its final robustness, revealing interesting insights.
- Abstract(参考訳): 敵のサンプルに対するディープニューラルネットワークの脆弱性は、さまざまな分野での成功にもかかわらず、幅広い応用において大きな障害となっている。
近年,高ロバスト性を実現するために低周波情報の重要性が強調されている研究もある。
この周波数特性を活用する試みがいくつか行われているが、いずれも入力画像に直接ローパスフィルタを適用すると、識別情報の不可逆的損失と、異なる周波数特徴を持つデータセットへの一般化が不十分になるという問題に直面している。
本稿では、中間特徴表現の低周波成分と高周波成分を適応的に再構成し、ロバスト学習における周波数利用を向上する、周波数優先制御モジュールと呼ばれるプラグアンドプレイモジュールを提案する。
実証研究により,提案するモジュールは,任意の敵のトレーニングフレームワークに容易に組み込むことができ,異なるアーキテクチャやデータセットにわたるモデルのロバスト性がさらに向上することが示された。
さらに、ロバストモデルの周波数バイアスが敵のトレーニングプロセスとその最終的なロバスト性にどのように影響するかを調べる実験を行い、興味深い洞察を明らかにした。
関連論文リスト
- Mitigating Low-Frequency Bias: Feature Recalibration and Frequency Attention Regularization for Adversarial Robustness [23.77988226456179]
本稿では,HFDR(High-Frequency Feature Disentanglement and Recalibration)と呼ばれる新しいモジュールを提案する。
HFDRは、特徴を高周波成分と低周波成分に分離し、高周波特徴を再検討し、潜在有用なセマンティクスをキャプチャする。
大規模な実験は、様々なホワイトボックス攻撃、転送攻撃、および強力な一般化能力に対する我々のアプローチの持つ大きな可能性と優位性を示している。
論文 参考訳(メタデータ) (2024-07-04T15:46:01Z) - Towards a Novel Perspective on Adversarial Examples Driven by Frequency [7.846634028066389]
異なる周波数帯域を組み合わせたブラックボックス逆攻撃アルゴリズムを提案する。
複数のデータセットとモデルで実施された実験により、低周波帯域と低周波帯域の高周波成分を組み合わせることで、攻撃効率が著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-16T00:58:46Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Phase-shifted Adversarial Training [8.89749787668458]
反応周波数のレンズによる対向訓練の挙動を解析する。
PhaseATは高周波情報の収束を著しく改善する。
これにより、モデルが各データ付近でスムーズな予測を行うことで、対向ロバスト性を向上させることができる。
論文 参考訳(メタデータ) (2023-01-12T02:25:22Z) - How Does Frequency Bias Affect the Robustness of Neural Image
Classifiers against Common Corruption and Adversarial Perturbations? [27.865987936475797]
近年の研究では、データ拡張は低周波領域の特徴を過度に分析する結果をもたらすことが示されている。
モデルのジャコビアンに対して、低周波成分の比が大きいようにジャコビアン周波数正規化を提案する。
我々の手法は、深層学習モデルの周波数バイアスとロバスト性の間のより直接的な関係を解明する。
論文 参考訳(メタデータ) (2022-05-09T20:09:31Z) - Certified Adversarial Defenses Meet Out-of-Distribution Corruptions:
Benchmarking Robustness and Simple Baselines [65.0803400763215]
この研究は、最先端のロバストモデルがアウト・オブ・ディストリビューションデータに遭遇した場合、敵のロバスト性がどのように変化を保証しているかを批判的に検証する。
本稿では,トレーニングデータのスペクトルカバレッジを改善するために,新たなデータ拡張方式であるFourierMixを提案する。
また,FourierMixの拡張により,様々なOODベンチマークにおいて,より優れたロバスト性保証を実現することが可能となる。
論文 参考訳(メタデータ) (2021-12-01T17:11:22Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - Frequency-based Automated Modulation Classification in the Presence of
Adversaries [17.930854969511046]
本稿では、転送可能な対角干渉に耐えられるディープラーニングモデルからなる新しい受信アーキテクチャを提案する。
本研究では、リカレントニューラルネットワーク(RNN)では30%以上、畳み込みニューラルネットワーク(CNN)では50%以上の性能向上を示す。
論文 参考訳(メタデータ) (2020-11-02T17:12:22Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。