論文の概要: Improving Apparel Detection with Category Grouping and Multi-grained
Branches
- arxiv url: http://arxiv.org/abs/2101.06770v1
- Date: Sun, 17 Jan 2021 20:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:15:54.079042
- Title: Improving Apparel Detection with Category Grouping and Multi-grained
Branches
- Title(参考訳): カテゴリーグループ化と多粒度分岐によるアパレル検出の改善
- Authors: Qing Tian, Sampath Chanda, K C Amit Kumar, Douglas Gray
- Abstract要約: まず1つのスーパーカテゴリ(またはスーパークラス)として、高視覚的および意味的類似性の既存のカテゴリをまとめる。
そこで,この階層的カテゴリの知識を用いて,多粒RCNNトップブランチを用いて物体の検出を改善する方法を検討する。
DeepFashion2 と OpenImagesV4-Clothing の実験結果から,複数の粒度の枝を持つ検出ヘッドが DeepFashion2 の 2.3 mAP と OpenImagesV4-Clothing の 2.5 mAP で全体の性能を向上させることが判明した。
- 参考スコア(独自算出の注目度): 3.806109052869554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training an accurate object detector is expensive and time-consuming. One
main reason lies in the laborious labeling process, i.e., annotating category
and bounding box information for all instances in every image. In this paper,
we examine ways to improve performance of deep object detectors without extra
labeling. We first explore to group existing categories of high visual and
semantic similarities together as one super category (or, a superclass). Then,
we study how this knowledge of hierarchical categories can be exploited to
better detect object using multi-grained RCNN top branches. Experimental
results on DeepFashion2 and OpenImagesV4-Clothing reveal that the proposed
detection heads with multi-grained branches can boost the overall performance
by 2.3 mAP for DeepFashion2 and 2.5 mAP for OpenImagesV4-Clothing with no
additional time-consuming annotations. More importantly, classes that have
fewer training samples tend to benefit more from the proposed multi-grained
heads with superclass grouping. In particular, we improve the mAP for last 30%
categories (in terms of training sample number) by 2.6 and 4.6 for DeepFashion2
and OpenImagesV4-Clothing, respectively.
- Abstract(参考訳): 正確な物体検出器の訓練は高価で時間を要する。
主な理由は、全ての画像の全てのインスタンスに対して、アノテートカテゴリとバウンディングボックス情報という、退屈なラベル付けプロセスにある。
本稿では,ディープオブジェクト検出器の性能向上を,余分なラベリングを伴わずに検討する。
まず、高視覚的および意味的類似性の既存のカテゴリを一つのスーパーカテゴリ(またはスーパークラス)としてまとめる。
そして,この階層的カテゴリの知識を利用して,マルチグラニュラルRCNNトップブランチを用いてオブジェクトをよりよく検出する方法について検討する。
deepfashion2とopenimagesv4-clothingの実験結果から,複数粒度の枝を持つ検出ヘッドは,openimagesv4-clothingのdeepfashion2の2.3マップと2.5マップの全体的な性能を,追加の時間を要するアノテーションなしで向上できることが分かった。
さらに重要なことは、トレーニングサンプルが少ないクラスは、スーパークラスグループによる提案されたマルチグラウンドヘッドの恩恵を受ける傾向にある。
特に,DeepFashion2とOpenImagesV4-Clothingでは,最後の30%(トレーニングサンプル数)のmAPを2.6と4.6に改善する。
関連論文リスト
- Cross-Level Multi-Instance Distillation for Self-Supervised Fine-Grained
Visual Categorization [41.86678318006878]
本稿では,粒度の細かいプレテキスト表現の課題を解決するために,クロスレベルマルチインスタンス蒸留(CMD)フレームワークを提案する。
私たちのキーとなる考え方は、複数のインスタンス学習による微細なプレテキスト表現の決定において、各イメージパッチの重要性を検討することです。
提案手法は,最新の手法を10.14%,既存の最先端の自己教師型学習手法を19.78%,トップ1精度とランク1検索基準の両方で上回っている。
論文 参考訳(メタデータ) (2024-01-16T22:22:09Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - A Novel Plug-in Module for Fine-Grained Visual Classification [0.19336815376402716]
本稿では,多くの一般的なバックボーンと一体化して,強力な識別領域を提供する新しいプラグインモジュールを提案する。
実験の結果,提案するプラグインモジュールは最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-02-08T12:35:58Z) - MFNet: Multi-class Few-shot Segmentation Network with Pixel-wise Metric
Learning [34.059257121606336]
この研究は、まだほとんど探索されていない分野である少数ショットセマンティックセマンティックセグメンテーションに焦点を当てている。
まず,マルチウェイ符号化とデコードアーキテクチャを提案する。このアーキテクチャは,マルチスケールクエリ情報とマルチクラスサポート情報を1つのクエリ支援埋め込みに効果的に融合する。
標準ベンチマーク PASCAL-5i と COCO-20i による実験により, 数発のセグメンテーションにおいて, 本手法の利点が明らかに示された。
論文 参考訳(メタデータ) (2021-10-30T11:37:36Z) - Weakly-Supervised Saliency Detection via Salient Object Subitizing [57.17613373230722]
我々は,クラス非依存であるため,弱い監督としてサリエンシー・サブイタライジングを導入する。
これにより、監視はサリエンシー検出の特性と整合することができます。
5つのベンチマークデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2021-01-04T12:51:45Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。