論文の概要: Group Based Deep Shared Feature Learning for Fine-grained Image
Classification
- arxiv url: http://arxiv.org/abs/2004.01817v1
- Date: Sat, 4 Apr 2020 00:01:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:10:31.323097
- Title: Group Based Deep Shared Feature Learning for Fine-grained Image
Classification
- Title(参考訳): 微細画像分類のためのグループベースDeep Shared Feature Learning
- Authors: Xuelu Li and Vishal Monga
- Abstract要約: 共有された特徴を明示的にモデル化し、その効果を除去し、拡張された分類結果を得るための新しいディープネットワークアーキテクチャを提案する。
我々はこのフレームワークをグループベースのDeep Shared Feature Learning (GSFL)と呼び、学習したネットワークをGSFL-Netと呼ぶ。
特殊オートエンコーダの重要な利点は、多用途であり、最先端のきめ細かい特徴抽出モデルと組み合わせて、それらと一緒にトレーニングすることで、パフォーマンスを直接改善できる点である。
- 参考スコア(独自算出の注目度): 31.84610555517329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained image classification has emerged as a significant challenge
because objects in such images have small inter-class visual differences but
with large variations in pose, lighting, and viewpoints, etc. Most existing
work focuses on highly customized feature extraction via deep network
architectures which have been shown to deliver state of the art performance.
Given that images from distinct classes in fine-grained classification share
significant features of interest, we present a new deep network architecture
that explicitly models shared features and removes their effect to achieve
enhanced classification results. Our modeling of shared features is based on a
new group based learning wherein existing classes are divided into groups and
multiple shared feature patterns are discovered (learned). We call this
framework Group based deep Shared Feature Learning (GSFL) and the resulting
learned network as GSFL-Net. Specifically, the proposed GSFL-Net develops a
specially designed autoencoder which is constrained by a newly proposed Feature
Expression Loss to decompose a set of features into their constituent shared
and discriminative components. During inference, only the discriminative
feature component is used to accomplish the classification task. A key benefit
of our specialized autoencoder is that it is versatile and can be combined with
state-of-the-art fine-grained feature extraction models and trained together
with them to improve their performance directly. Experiments on benchmark
datasets show that GSFL-Net can enhance classification accuracy over the state
of the art with a more interpretable architecture.
- Abstract(参考訳): このような画像内の物体はクラス間の視覚差は小さいが、ポーズ、照明、視点のバリエーションが大きいため、きめ細かい画像分類は大きな課題となっている。
既存の作業の多くは、最先端のネットワークアーキテクチャによる高度にカスタマイズされた機能抽出に焦点を当てている。
細粒度分類における異なるクラスからのイメージが重要な特徴を共有していることを考慮し,共有特徴を明示的にモデル化し,その効果を除去して分類結果の強化を図る,新たなディープネットワークアーキテクチャを提案する。
共有特徴のモデリングは、既存のクラスをグループに分割し、複数の共有特徴パターンを発見(学習)する新しいグループベースの学習に基づいている。
我々はこのフレームワークをグループベースのDeep Shared Feature Learning (GSFL)と呼び、学習したネットワークをGSFL-Netと呼ぶ。
具体的には、GSFL-Netは、新たに提案された特徴表現損失によって制約された特殊設計のオートエンコーダを開発し、特徴の集合を構成的共有および識別的コンポーネントに分解する。
推論中、識別的特徴成分のみが分類タスクの達成に使用される。
特殊オートエンコーダの重要な利点は、多用途であり、最先端のきめ細かい特徴抽出モデルと組み合わせて、それらと一緒にトレーニングすることで、パフォーマンスを直接改善できる点である。
ベンチマークデータセットの実験では、GSFL-Netはより解釈可能なアーキテクチャで、最先端の分類精度を高めることができる。
関連論文リスト
- HGCLIP: Exploring Vision-Language Models with Graph Representations for Hierarchical Understanding [18.95003393925676]
異なる階層レベルでカテゴリを分類する場合、従来のユニモーダルアプローチは主にイメージ機能に焦点を当て、複雑なシナリオにおける制限を明らかにする。
ビジョンランゲージモデル(VLM)とクラス階層を統合する最近の研究は、将来性を示しているが、階層関係を完全に活用するには至っていない。
本稿では,CLIPとグラフ表現学習による階層型クラス構造のより深い活用を効果的に組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T15:42:42Z) - How Deep Neural Networks Learn Compositional Data: The Random Hierarchy Model [47.617093812158366]
言語と画像の階層構造にインスパイアされた合成タスクのファミリーであるランダム階層モデルを紹介する。
深層ネットワークは、等価なグループを交換するために不変な内部表現を開発することでタスクを学習する。
この結果から, ネットワークは次元の呪いを克服し, 不変表現を構築できることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T09:11:09Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Integrative Few-Shot Learning for Classification and Segmentation [37.50821005917126]
少数ショット分類とセグメンテーション(FS-CS)の統合タスクについて紹介する。
FS-CSは、ターゲットクラスがいくつかの例で与えられるとき、クエリイメージでターゲットオブジェクトを分類し、セグメントすることを目的としている。
本稿では,FS-CSのための統合的数ショット学習フレームワークを提案し,学習者がクラスワイドな前景マップを構築するように訓練する。
論文 参考訳(メタデータ) (2022-03-29T16:14:40Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Disentangled Feature Representation for Few-shot Image Classification [64.40410801469106]
そこで本研究では,DFRと呼ばれる新しいDistangled Feature Representationフレームワークを提案する。
DFRは、分類枝によってモデル化される識別的特徴を、変動枝のクラス非関連成分から適応的に分離することができる。
一般的に、一般的な深層数ショット学習手法のほとんどが分類ブランチとしてプラグインできるため、DFRは様々な数ショットタスクのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-09-26T09:53:11Z) - Improving Few-shot Learning with Weakly-supervised Object Localization [24.3569501375842]
画像のクラス関連領域から特徴を抽出してクラス表現を生成する新しいフレームワークを提案する。
提案手法は, miniImageNet および tieredImageNet ベンチマークにおいて,ベースライン数ショットモデルよりも優れている。
論文 参考訳(メタデータ) (2021-05-25T07:39:32Z) - Learning Granularity-Aware Convolutional Neural Network for Fine-Grained
Visual Classification [0.0]
識別的特徴を段階的に探索するGranularity-Aware Congrainedal Neural Network (GA-CNN)を提案する。
GA-CNNはバウンディングボックス/パーツアノテーションを必要とせず、エンドツーエンドでトレーニングできます。
このアプローチは3つのベンチマークデータセットで最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2021-03-04T02:18:07Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。