論文の概要: What Do Adversarially trained Neural Networks Focus: A Fourier
Domain-based Study
- arxiv url: http://arxiv.org/abs/2203.08739v1
- Date: Wed, 16 Mar 2022 16:37:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:17:11.997925
- Title: What Do Adversarially trained Neural Networks Focus: A Fourier
Domain-based Study
- Title(参考訳): 敵対的に訓練されたニューラルネットワークとは何か:フーリエドメインに基づく研究
- Authors: Binxiao Huang, Chaofan Tao, Rui Lin, Ngai Wong
- Abstract要約: この研究は、敵対的に訓練されたモデルがどのような情報に焦点を当てるかを研究する。
データ拡張とより強力なネットワークアーキテクチャによるモデルロバスト性を改善するための2つの一般的な方法を検討する。
- 参考スコア(独自算出の注目度): 8.912245110734334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although many fields have witnessed the superior performance brought about by
deep learning, the robustness of neural networks remains an open issue.
Specifically, a small adversarial perturbation on the input may cause the model
to produce a completely different output. Such poor robustness implies many
potential hazards, especially in security-critical applications, e.g.,
autonomous driving and mobile robotics. This work studies what information the
adversarially trained model focuses on. Empirically, we notice that the
differences between the clean and adversarial data are mainly distributed in
the low-frequency region. We then find that an adversarially-trained model is
more robust than its naturally-trained counterpart due to the reason that the
former pays more attention to learning the dominant information in
low-frequency components. In addition, we consider two common ways to improve
model robustness, namely, by data augmentation and by using stronger network
architectures, and understand these techniques from a frequency-domain
perspective. We are hopeful this work can shed light on the design of more
robust neural networks.
- Abstract(参考訳): 多くの分野がディープラーニングによってもたらされた優れたパフォーマンスを目撃しているが、ニューラルネットワークの堅牢性は未解決の問題である。
具体的には、入力に対する小さな逆方向の摂動は、モデルが全く異なる出力を生成する可能性がある。
このようなロバスト性は、特に自律運転や移動ロボットなどのセキュリティクリティカルな応用において、多くの潜在的な危険を示唆する。
この研究は、敵が訓練したモデルがどの情報に焦点を当てているかを研究する。
実験により, クリーンデータと逆データの違いは, 主に低周波領域に分布していることがわかった。
その結果,前者が低周波成分における支配的情報学習により多くの注意を払っているため,逆学習モデルの方が自然学習モデルよりも頑健であることが判明した。
さらに,データ拡張と強固なネットワークアーキテクチャによるモデルのロバスト性向上に共通する2つの方法を検討するとともに,これらの手法を周波数領域の観点から理解する。
この研究が、より堅牢なニューラルネットワークの設計に光を当てることを期待しています。
関連論文リスト
- Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - What Can the Neural Tangent Kernel Tell Us About Adversarial Robustness? [0.0]
ニューラルネットワークとカーネルメソッドを接続する最近の理論の進歩によって得られた分析ツールを用いて、トレーニングされたニューラルネットワークの逆例について研究する。
NTKがいかにして、トレーニングフリーのやり方で敵の例を生成できるかを示し、遅延のやり方で、有限幅のニューラルネットを騙すために移行することを実証する。
論文 参考訳(メタデータ) (2022-10-11T16:11:48Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - The Self-Simplifying Machine: Exploiting the Structure of Piecewise
Linear Neural Networks to Create Interpretable Models [0.0]
本稿では,分類タスクに対するPiecewise Linear Neural Networksの単純化と解釈性向上のための新しい手法を提案する。
我々の手法には、トレーニングを伴わずに、訓練された深層ネットワークを使用して、良好なパフォーマンスと単一隠れ層ネットワークを生成する方法が含まれる。
これらの手法を用いて,モデル性能の予備的研究およびウェルズ・ファーゴのホームレンディングデータセットのケーススタディを行う。
論文 参考訳(メタデータ) (2020-12-02T16:02:14Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Robustness from Simple Classifiers [31.50446148110293]
頑丈さと単純さの関連について検討する。
出力クラス数を減らした単純な分類器は、対角的摂動の影響を受けにくいことが判明した。
論文 参考訳(メタデータ) (2020-02-21T17:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。