論文の概要: Signal Strength and Noise Drive Feature Preference in CNN Image
Classifiers
- arxiv url: http://arxiv.org/abs/2201.08893v1
- Date: Wed, 19 Jan 2022 11:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 11:24:06.916807
- Title: Signal Strength and Noise Drive Feature Preference in CNN Image
Classifiers
- Title(参考訳): CNN画像分類器における信号強度とノイズ駆動特性
- Authors: Max Wolff and Stuart Wolff
- Abstract要約: 我々は、高度に制御されたCNN画像分類実験において、信号と雑音の程度が異なるタスク関連特徴属性の範囲をテストする。
CNNは、その特徴がテクスチャ、形状、色に関わらず、より強い信号強度と低いノイズを持つ特徴を好む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature preference in Convolutional Neural Network (CNN) image classifiers is
integral to their decision making process, and while the topic has been well
studied, it is still not understood at a fundamental level. We test a range of
task relevant feature attributes (including shape, texture, and color) with
varying degrees of signal and noise in highly controlled CNN image
classification experiments using synthetic datasets to determine feature
preferences. We find that CNNs will prefer features with stronger signal
strength and lower noise irrespective of whether the feature is texture, shape,
or color. This provides guidance for a predictive model for task relevant
feature preferences, demonstrates pathways for bias in machine models that can
be avoided with careful controls on experimental setup, and suggests that
comparisons between how humans and machines prefer task relevant features in
vision classification tasks should be revisited. Code to reproduce experiments
in this paper can be found at
\url{https://github.com/mwolff31/signal_preference}.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)画像分類器の特徴選好は意思決定プロセスに不可欠であり、そのトピックは十分に研究されているが、基本的なレベルでは理解されていない。
合成データセットを用いて高度に制御されたCNN画像分類実験において, 特徴属性(形状, テクスチャ, 色など)を信号や雑音の度合いの異なる範囲で検証し, 特徴嗜好を決定する。
CNNは、その特徴がテクスチャ、形状、色に関わらず、より強い信号強度と低いノイズを持つ特徴を好む。
本研究は,タスク関連機能選好の予測モデルに関するガイダンスを提供するとともに,実験的な設定に対する注意深い制御で回避できるマシンモデルにおけるバイアスの経路を示すとともに,視覚分類タスクにおけるタスク関連機能をどのように好むかを比較することを提案する。
実験を再現するコードは \url{https://github.com/mwolff31/signal_preference} にある。
関連論文リスト
- Comprehensive Attribution: Inherently Explainable Vision Model with Feature Detector [30.23453108681447]
Inherently explainable attribution methodはモデル行動の理解を高めることを目的としている。
これは、セレクタ(重要な特徴を特定するために属性マップを生成する)と予測器を協調的に訓練することで達成される。
マスクアウト領域における差別的特徴の存在を阻止する新たな目標を提案する。
我々のモデルは通常のブラックボックスモデルよりも高精度で正確な予測を行う。
論文 参考訳(メタデータ) (2024-07-27T17:45:20Z) - Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - XAI-based Comparison of Input Representations for Audio Event
Classification [10.874097312428235]
我々はeXplainable AI(XAI)を活用し、異なる入力表現に基づいて訓練されたモデルの基本的な分類戦略を理解する。
具体的には、オーディオイベント検出に使用される関連する入力機能について、2つのモデルアーキテクチャを比較した。
論文 参考訳(メタデータ) (2023-04-27T08:30:07Z) - Interpreting Bias in the Neural Networks: A Peek Into Representational
Similarity [0.0]
偏りのあるデータに基づいて学習した畳み込み型ニューラルネットワークの性能と内部表現構造について検討する。
目的関数にCKA(Centered Kernel Alignment)を用いて,表現の類似性について検討する。
ニューラルネットワークの層間のプログレッシブな表現的類似性がなければ、その性能はロバストになりそうにない。
論文 参考訳(メタデータ) (2022-11-14T22:17:14Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Neural Clamping: Joint Input Perturbation and Temperature Scaling for Neural Network Calibration [62.4971588282174]
我々はニューラルクランプ法と呼ばれる新しい後処理キャリブレーション法を提案する。
実験の結果,Neural Clampingは最先端の処理後のキャリブレーション法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-23T14:18:39Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Examining convolutional feature extraction using Maximum Entropy (ME)
and Signal-to-Noise Ratio (SNR) for image classification [0.6875312133832078]
畳み込みニューラルネットワーク(CNN)は、関数マッピングよりも特徴抽出を専門とする。
本稿では,最大エントロピー(ME)と信号対雑音比(SNR)を用いたCNNの特徴抽出機能について検討する。
CNNの分類精度や性能は、入力データに存在する信号情報の量、複雑さ、品質に大きく依存していることを示す。
論文 参考訳(メタデータ) (2021-05-10T03:58:06Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。