論文の概要: Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2007.15861v1
- Date: Fri, 31 Jul 2020 06:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:38:14.037732
- Title: Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks
- Title(参考訳): 深層ニューラルネットワークの特徴可視化のための塩分駆動クラスインプレッション
- Authors: Sravanti Addepalli, Dipesh Tamboli, R. Venkatesh Babu, Biplab Banerjee
- Abstract要約: 分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
- 参考スコア(独自算出の注目度): 55.11806035788036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a data-free method of extracting Impressions of
each class from the classifier's memory. The Deep Learning regime empowers
classifiers to extract distinct patterns (or features) of a given class from
training data, which is the basis on which they generalize to unseen data.
Before deploying these models on critical applications, it is advantageous to
visualize the features considered to be essential for classification. Existing
visualization methods develop high confidence images consisting of both
background and foreground features. This makes it hard to judge what the
crucial features of a given class are. In this work, we propose a
saliency-driven approach to visualize discriminative features that are
considered most important for a given task. Another drawback of existing
methods is that confidence of the generated visualizations is increased by
creating multiple instances of the given class. We restrict the algorithm to
develop a single object per image, which helps further in extracting features
of high confidence and also results in better visualizations. We further
demonstrate the generation of negative images as naturally fused images of two
or more classes.
- Abstract(参考訳): 本稿では,各クラスのインプレッションを分類器のメモリから抽出するデータフリーな手法を提案する。
ディープラーニングのレジームは、トレーニングデータから特定のクラスの異なるパターン(あるいは特徴)を抽出するように分類器に権限を与えます。
これらのモデルをクリティカルなアプリケーションにデプロイする前に、分類に不可欠なと思われる機能を視覚化するのが有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
これにより、あるクラスの重要な機能が何であるかを判断するのは難しい。
本研究では,与えられたタスクにおいて最も重要な識別的特徴を視覚化するための,サリエンシー駆動手法を提案する。
既存のメソッドのもう一つの欠点は、生成されたビジュアライゼーションの信頼性が、与えられたクラスの複数のインスタンスを作成することで高まることである。
我々は,画像ごとの単一オブジェクトの開発にアルゴリズムを制限し,信頼性の高い特徴を抽出し,その結果の可視化を向上する。
さらに,2つ以上のクラスの自然な融合画像として,否定画像の生成を実証する。
関連論文リスト
- Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Mitigating Bias: Enhancing Image Classification by Improving Model
Explanations [9.791305104409057]
ディープラーニングモデルは、画像の背景にあるシンプルで容易に識別できる特徴に大きく依存する傾向がある。
モデルに十分な注意を前景に割り当てるよう促すメカニズムを導入する。
本研究は,画像内の主概念の理解と表現を高める上で,前景の注意が重要であることを明らかにする。
論文 参考訳(メタデータ) (2023-07-04T04:46:44Z) - Facing the Void: Overcoming Missing Data in Multi-View Imagery [0.783788180051711]
本稿では,この問題に頑健な多視点画像分類のための新しい手法を提案する。
提案手法は,最先端の深層学習とメートル法学習に基づいて,他のアプリケーションやドメインに容易に適応し,活用することができる。
その結果,提案アルゴリズムは,最先端手法と比較して,多視点画像分類精度の向上を図っている。
論文 参考訳(メタデータ) (2022-05-21T13:21:27Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。