論文の概要: Right for the Right Reason: Making Image Classification Robust
- arxiv url: http://arxiv.org/abs/2007.11924v2
- Date: Tue, 12 Jan 2021 14:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:03:31.746325
- Title: Right for the Right Reason: Making Image Classification Robust
- Title(参考訳): 正しい理由: 画像分類を堅牢にすること
- Authors: Anna Nguyen, Adrian Oberf\"oll, Michael F\"arber
- Abstract要約: 本稿では,画像分類におけるオブジェクトのアラインな説明量を測定するための新しい説明品質指標を提案する。
我々は、オブジェクト検出手法、説明手法、ObAlExを用いて、CNNの実際の証拠に対する焦点を定量化する。
CNNのさらなるトレーニングにより、CNNの精度を低下させることなく、CNNの焦点を向上できることを示す。
- 参考スコア(独自算出の注目度): 0.12891210250935145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effectiveness of Convolutional Neural Networks (CNNs)in classifying image
data has been thoroughly demonstrated. In order to explain the classification
to humans, methods for visualizing classification evidence have been developed
in recent years. These explanations reveal that sometimes images are classified
correctly, but for the wrong reasons,i.e., based on incidental evidence. Of
course, it is desirable that images are classified correctly for the right
reasons, i.e., based on the actual evidence. To this end, we propose a new
explanation quality metric to measure object aligned explanation in image
classification which we refer to as theObAlExmetric. Using object detection
approaches, explanation approaches, and ObAlEx, we quantify the focus of CNNs
on the actual evidence. Moreover, we show that additional training of the CNNs
can improve the focus of CNNs without decreasing their accuracy.
- Abstract(参考訳): 画像データの分類における畳み込みニューラルネットワーク(CNN)の有効性を徹底的に実証した。
人間への分類を説明するため,近年,分類証拠を可視化する手法が開発されている。
これらの説明は、時々画像は正しく分類されるが、間違った理由、すなわち偶然の証拠に基づいて、正しく分類される。
もちろん、画像が正しい理由、すなわち実際の証拠に基づいて正しく分類されることは望ましい。
そこで本稿では,画像分類におけるオブジェクト整列説明量を測定するための新しい説明品質指標を提案する。
オブジェクト検出手法、説明手法、ObAlExを用いて、実際の証拠に対するCNNの焦点を定量化する。
さらに,CNNのさらなるトレーニングにより,CNNの精度を低下させることなく,CNNの焦点を向上できることを示す。
関連論文リスト
- A matter of attitude: Focusing on positive and active gradients to boost
saliency maps [0.0]
親和性マップは畳み込みニューラルネットワーク(CNN)の最も広く使われている解釈可能性手法の1つである。
本稿では,勾配図から勾配の徴候を解くことで,階層分類問題の理解を深める方法について考察する。
論文 参考訳(メタデータ) (2023-09-22T15:00:00Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - A study on the deviations in performance of FNNs and CNNs in the realm
of grayscale adversarial images [0.3437656066916039]
ノイズ摂動を伴う画像の分類において,ニューラルネットワークはより精度の低い傾向を示す。
本研究では,手書き桁データセットであるMNISTを用いて,1と2の隠蔽層を持つFNNと3,4,6,8の畳み込みを持つCNNを用いて,それらの精度を分析した。
FNNは、ノイズの強度に関係なく、分類精度が85%以上であることを示した。
論文 参考訳(メタデータ) (2022-09-17T06:25:14Z) - How explainable are adversarially-robust CNNs? [7.143109213647008]
既存の畳み込みニューラルネットワーク(CNN)の3つの重要な基準は、(1)テストセット精度、(2)アウト・オブ・ディストリビューション精度、(3)説明可能性である。
そこで我々は,9つの特徴重要度法と12のイメージネット学習CNNを用いて,3つの基準の関係を大規模に評価する。
論文 参考訳(メタデータ) (2022-05-25T20:24:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Trustworthy Convolutional Neural Networks: A Gradient Penalized-based
Approach [0.0]
畳み込みニューラルネットワーク(CNN)は一般的に画像分類に用いられる。
CNNは画像を正しく分類できるが、基礎となるサリエンシマップは多くのケースで誤っている可能性がある。
本稿では,パラメータ選択をペナライズすることで信頼度の高いCNNをトレーニングする手法を提案する。
論文 参考訳(メタデータ) (2020-09-29T18:56:40Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。