論文の概要: Scalable Visual Attribute Extraction through Hidden Layers of a Residual
ConvNet
- arxiv url: http://arxiv.org/abs/2104.00161v1
- Date: Wed, 31 Mar 2021 23:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 07:19:57.686780
- Title: Scalable Visual Attribute Extraction through Hidden Layers of a Residual
ConvNet
- Title(参考訳): Residual ConvNetの隠れ層によるスケーラブルな視覚属性抽出
- Authors: Andres Baloian, Nils Murrugarra-Llerena, Jose M. Saavedra
- Abstract要約: 本稿では,一般畳み込みネットワークの隠れたレイヤの学習能力を活用し,画像から視覚属性を抽出する手法を提案する。
imagenetでトレーニングされたresnet-50を用いて実験を行い、色とテクスチャを区別するために異なるブロックの出力を評価する。
- 参考スコア(独自算出の注目度): 7.6702700993064115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual attributes play an essential role in real applications based on image
retrieval. For instance, the extraction of attributes from images allows an
eCommerce search engine to produce retrieval results with higher precision. The
traditional manner to build an attribute extractor is by training a
convnet-based classifier with a fixed number of classes. However, this approach
does not scale for real applications where the number of attributes changes
frequently. Therefore in this work, we propose an approach for extracting
visual attributes from images, leveraging the learned capability of the hidden
layers of a general convolutional network to discriminate among different
visual features. We run experiments with a resnet-50 trained on Imagenet, on
which we evaluate the output of its different blocks to discriminate between
colors and textures. Our results show that the second block of the resnet is
appropriate for discriminating colors, while the fourth block can be used for
textures. In both cases, the achieved accuracy of attribute classification is
superior to 93%. We also show that the proposed embeddings form local
structures in the underlying feature space, which makes it possible to apply
reduction techniques like UMAP, maintaining high accuracy and widely reducing
the size of the feature space.
- Abstract(参考訳): ビジュアル属性は、画像検索に基づく実際のアプリケーションにおいて重要な役割を果たす。
例えば、画像から属性を抽出することで、eコマース検索エンジンはより精度の高い検索結果を生成することができる。
属性抽出器を構築する従来の方法は、固定数のクラスでconvnetベースの分類器をトレーニングすることである。
しかし、属性数が頻繁に変化する実際のアプリケーションでは、このアプローチはスケールしない。
そこで本研究では,画像から視覚的属性を抽出する手法を提案し,一般的な畳み込みネットワークの隠れ層の学習能力を活用して,異なる視覚的特徴を識別する。
imagenetでトレーニングされたresnet-50を用いて実験を行い、色とテクスチャを区別するために異なるブロックの出力を評価する。
以上の結果から,resnetの第2ブロックは色判別に適しており,第4ブロックはテクスチャに使用できることがわかった。
いずれの場合も、属性分類の精度は93%よりも優れている。
また,提案手法が機能空間に局所的な構造を形成することを示し,umapのような還元手法を適用し,高い精度を維持し,機能空間のサイズを広く削減できることを示した。
関連論文リスト
- High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - Improving Few-shot Learning with Weakly-supervised Object Localization [24.3569501375842]
画像のクラス関連領域から特徴を抽出してクラス表現を生成する新しいフレームワークを提案する。
提案手法は, miniImageNet および tieredImageNet ベンチマークにおいて,ベースライン数ショットモデルよりも優れている。
論文 参考訳(メタデータ) (2021-05-25T07:39:32Z) - DenserNet: Weakly Supervised Visual Localization Using Multi-scale
Feature Aggregation [7.2531609092488445]
画像表現の異なる意味レベルで特徴マップを集約する畳み込みニューラルネットワークアーキテクチャを開発する。
第二に、我々のモデルは、正および負のGPSタグ付き画像対以外の画素レベルのアノテーションなしで、エンドツーエンドで訓練されている。
第3に、アーキテクチャが計算中に特徴やパラメータを共有しているため、計算効率がよい。
論文 参考訳(メタデータ) (2020-12-04T02:16:47Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。