論文の概要: Rethinking the Image Feature Biases Exhibited by Deep CNN Models
- arxiv url: http://arxiv.org/abs/2111.02058v1
- Date: Wed, 3 Nov 2021 08:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 12:48:16.433047
- Title: Rethinking the Image Feature Biases Exhibited by Deep CNN Models
- Title(参考訳): 深部CNNモデルによる画像特徴バイアスの再考
- Authors: Dawei Dai and Yutang Li and Huanan Bao and Sy Xia and Guoyin Wang and
Xiaoli Ma
- Abstract要約: 人間の直感に基づいて2つの分類タスクを訓練し、予測されるバイアスを特定する。
特定の機能の組み合わせ効果は、通常、どの機能よりもはるかに影響が大きいと結論付けます。
- 参考スコア(独自算出の注目度): 14.690952990358095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, convolutional neural networks (CNNs) have been applied
successfully in many fields. However, such deep neural models are still
regarded as black box in most tasks. One of the fundamental issues underlying
this problem is understanding which features are most influential in image
recognition tasks and how they are processed by CNNs. It is widely accepted
that CNN models combine low-level features to form complex shapes until the
object can be readily classified, however, several recent studies have argued
that texture features are more important than other features. In this paper, we
assume that the importance of certain features varies depending on specific
tasks, i.e., specific tasks exhibit a feature bias. We designed two
classification tasks based on human intuition to train deep neural models to
identify anticipated biases. We devised experiments comprising many tasks to
test these biases for the ResNet and DenseNet models. From the results, we
conclude that (1) the combined effect of certain features is typically far more
influential than any single feature; (2) in different tasks, neural models can
perform different biases, that is, we can design a specific task to make a
neural model biased toward a specific anticipated feature.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(cnns)が多くの分野でうまく適用されている。
しかし、そのような深い神経モデルはほとんどのタスクにおいてブラックボックスと見なされている。
この問題の根底にある根本的な問題は、どの特徴が画像認識タスクに最も影響するか、CNNによってどのように処理されるのかを理解することである。
CNNモデルは、オブジェクトが容易に分類されるまで、低レベルの特徴を組み合わせて複雑な形状を形成することは広く受け入れられているが、最近の研究ではテクスチャの特徴は他の特徴よりも重要であると主張している。
本稿では,特定のタスクによって特徴の重要性が異なり,特定のタスクが特徴バイアスを示すと仮定する。
予測バイアスを識別するために,人間の直観に基づく2つの分類タスクを設計した。
resnet と densenet モデルのバイアスをテストするために,多くのタスクからなる実験を考案した。
その結果、(1)特定の特徴の組合せ効果は、通常、どの特徴よりもはるかに影響が大きい、(2)異なるタスクにおいて、ニューラルモデルは異なるバイアスを実行できる、すなわち、特定の期待された特徴に対して神経モデルにバイアスを与える特定のタスクを設計できる、という結論が得られた。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Biased Attention: Do Vision Transformers Amplify Gender Bias More than
Convolutional Neural Networks? [2.8391805742728553]
コンピュータビジョンで使用されるディープニューラルネットワークは、性別バイアスのような多くの社会的バイアスを示すことが示されている。
ビジョントランスフォーマー(ViT)は、コンピュータビジョンアプリケーションにおいて、画像分類などの多くのタスクにおいて、畳み込みニューラルネットワーク(CNN)を上回っている。
この研究により、ViTsはCNNよりも男女の偏見を増幅していることがわかった。
論文 参考訳(メタデータ) (2023-09-15T20:59:12Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Bias Loss for Mobile Neural Networks [14.08237958134373]
コンパクト畳み込みニューラルネットワーク(CNN)は、近年、異常なパフォーマンス改善を目撃している。
層によって捕捉される多様かつ豊富な特徴は、これらの成功しているCNNの重要な特徴である。
コンパクトCNNでは、パラメータ数が限られているため、豊富な特徴が得られず、特徴の多様性が本質的な特徴となる。
論文 参考訳(メタデータ) (2021-07-23T12:37:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Teaching CNNs to mimic Human Visual Cognitive Process & regularise
Texture-Shape bias [18.003188982585737]
コンピュータビジョンにおける最近の実験は、畳み込みニューラルネットワーク(CNN)を用いたモデルにおいて、テクスチャバイアスが最高の結果の主因であることを実証している。
コスト関数は、CNNが欲張りなアプローチを採り、テクスチャのような局所的な情報に対する生産性を向上させ、その結果、グローバルな統計を探索することができないと信じられている。
画像の再構成と分類に形状,テクスチャ,エッジなどの人間の解釈可能な特徴を活用するために,心理学における特徴統合理論から着想を得た,新しい直感的なアーキテクチャであるCognitiveCNNを提案する。
論文 参考訳(メタデータ) (2020-06-25T22:32:54Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - When CNNs Meet Random RNNs: Towards Multi-Level Analysis for RGB-D
Object and Scene Recognition [10.796613905980609]
オブジェクトおよびシーン認識タスクのための多モードRGB-D画像から識別的特徴表現を抽出する新しいフレームワークを提案する。
CNNアクティベーションの高次元性に対応するため、ランダムな重み付けプール方式が提案されている。
実験では、RNNステージにおける完全ランダム化構造がCNNアクティベーションを符号化し、識別的ソリッドな特徴を成功させることを確認した。
論文 参考訳(メタデータ) (2020-04-26T10:58:27Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - NeurAll: Towards a Unified Visual Perception Model for Automated Driving [8.49826472556323]
本稿では,複数のタスクを同時に学習するためのマルチタスクネットワーク設計を提案する。
自動運転システムの主なボトルネックは、デプロイメントハードウェアで利用可能な限られた処理能力である。
論文 参考訳(メタデータ) (2019-02-10T12:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。