論文の概要: Towards Frequency-Based Explanation for Robust CNN
- arxiv url: http://arxiv.org/abs/2005.03141v1
- Date: Wed, 6 May 2020 21:22:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 04:37:38.699196
- Title: Towards Frequency-Based Explanation for Robust CNN
- Title(参考訳): ロバストCNNの周波数ベース説明に向けて
- Authors: Zifan Wang, Yilin Yang, Ankit Shrivastava, Varun Rawal and Zihao Ding
- Abstract要約: 本稿では,入力データセットにおける周波数成分の分布とモデルがデータから学習する推論プロセスとの関連性について述べる。
モデルが小さな歪みに対して脆弱であることは、そのモデルが高周波特性に依存している結果であることを示す。
- 参考スコア(独自算出の注目度): 6.164771707307929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current explanation techniques towards a transparent Convolutional Neural
Network (CNN) mainly focuses on building connections between the
human-understandable input features with models' prediction, overlooking an
alternative representation of the input, the frequency components
decomposition. In this work, we present an analysis of the connection between
the distribution of frequency components in the input dataset and the reasoning
process the model learns from the data. We further provide quantification
analysis about the contribution of different frequency components toward the
model's prediction. We show that the vulnerability of the model against tiny
distortions is a result of the model is relying on the high-frequency features,
the target features of the adversarial (black and white-box) attackers, to make
the prediction. We further show that if the model develops stronger association
between the low-frequency component with true labels, the model is more robust,
which is the explanation of why adversarially trained models are more robust
against tiny distortions.
- Abstract(参考訳): 透明畳み込みニューラルネットワーク(CNN)への現在の説明手法は、主に人間の理解可能な入力特徴とモデルの予測との接続を構築することに焦点を当て、入力の代替表現である周波数成分分解を見越す。
本稿では,入力データセットにおける周波数成分の分布とモデルがデータから学習する推論過程との関係について解析する。
さらに、モデルの予測に対する異なる周波数成分の寄与に関する定量化分析を行う。
モデルの小さな歪みに対する脆弱性は、そのモデルが、敵(ブラックボックスとホワイトボックス)の攻撃者のターゲット特徴である高周波特性に依存していることの結果であることを示している。
さらに,低周波成分と真のラベルとの相関関係が強くなると,モデルがより堅牢になることを示す。
関連論文リスト
- Towards Building More Robust Models with Frequency Bias [8.510441741759758]
本稿では,中間特徴表現の低周波成分と高周波成分を適応的に再構成するプラグイン・アンド・プレイ・モジュールを提案する。
実験により,提案するモジュールは,任意の対戦型トレーニングフレームワークに容易に組み込むことができることが示された。
論文 参考訳(メタデータ) (2023-07-19T05:46:56Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - How Does Frequency Bias Affect the Robustness of Neural Image
Classifiers against Common Corruption and Adversarial Perturbations? [27.865987936475797]
近年の研究では、データ拡張は低周波領域の特徴を過度に分析する結果をもたらすことが示されている。
モデルのジャコビアンに対して、低周波成分の比が大きいようにジャコビアン周波数正規化を提案する。
我々の手法は、深層学習モデルの周波数バイアスとロバスト性の間のより直接的な関係を解明する。
論文 参考訳(メタデータ) (2022-05-09T20:09:31Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。