論文の概要: Crowd Counting by Self-supervised Transfer Colorization Learning and
Global Prior Classification
- arxiv url: http://arxiv.org/abs/2105.09684v1
- Date: Thu, 20 May 2021 11:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:34:04.501683
- Title: Crowd Counting by Self-supervised Transfer Colorization Learning and
Global Prior Classification
- Title(参考訳): 自己監督的移動色分け学習とグローバル事前分類による集団カウント
- Authors: Haoyue Bai, Song Wen, S.-H. Gary Chan
- Abstract要約: 自己教師付きトランスファーカラー化学習とグローバル事前分類を組み合わせた新しいCNNベースのアプローチであるColorCountを提案する。
我々は4つの挑戦的なベンチマークで広範囲に実験を行い、ColorCountは他の教師なしのアプローチと比べてはるかに優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 2.0088802641040604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeled crowd scene images are expensive and scarce. To significantly reduce
the requirement of the labeled images, we propose ColorCount, a novel CNN-based
approach by combining self-supervised transfer colorization learning and global
prior classification to leverage the abundantly available unlabeled data. The
self-supervised colorization branch learns the semantics and surface texture of
the image by using its color components as pseudo labels. The classification
branch extracts global group priors by learning correlations among image
clusters. Their fused resultant discriminative features (global priors,
semantics and textures) provide ample priors for counting, hence significantly
reducing the requirement of labeled images. We conduct extensive experiments on
four challenging benchmarks. ColorCount achieves much better performance as
compared with other unsupervised approaches. Its performance is close to the
supervised baseline with substantially less labeled data (10\% of the original
one).
- Abstract(参考訳): ラベル付き群衆シーン画像は高価で不足しています。
ラベル付き画像の必要量を大幅に削減するために,自己教師付き転送色化学習とグローバル事前分類を組み合わせた新しいcnnベースのアプローチであるcolorcountを提案する。
自己教師付きカラー化ブランチは、そのカラー成分を擬似ラベルとして、画像のセマンティクスと表面テクスチャを学習する。
分類部は、画像クラスタ間での学習相関により、グローバルグループ先行を抽出する。
それらの融合した識別的特徴(言語前駆体、意味論、テクスチャ)はカウントに十分な事前情報を提供し、ラベル付き画像の要求を大幅に低減する。
4つの挑戦的なベンチマークで広範な実験を行う。
ColorCountは他の教師なしのアプローチと比べてはるかに優れたパフォーマンスを実現している。
その性能は教師付きベースラインに近いが、ラベル付きデータはかなり少ない(元のデータのうち10倍)。
関連論文リスト
- Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels [34.13899937264952]
ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
論文 参考訳(メタデータ) (2021-01-13T11:55:58Z) - Coarse to Fine: Multi-label Image Classification with Global/Local
Attention [19.532952411766168]
粗い画像から細かい画像まで認識できるグローバル/ローカルな注意法を提案します。
具体的には、まず、グローバル/ローカルアテンション手法が画像全体に集中し、次に画像内の局所的なオブジェクトに注目します。
また,正のラベルの最小スコアが負のラベルの最大スコアよりも水平および垂直に大きいことを強制する統合的マックスマージン客観的関数を提案する。
論文 参考訳(メタデータ) (2020-12-26T02:36:04Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Multi-label Zero-shot Classification by Learning to Transfer from
External Knowledge [36.04579549557464]
マルチラベルゼロショット分類は、入力画像に対する複数の未知のクラスラベルを予測することを目的としている。
本稿では,外部知識の伝達を学習することで,新たなゼロショット分類フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:26:46Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。