論文の概要: Learning To Count Everything
- arxiv url: http://arxiv.org/abs/2104.08391v1
- Date: Fri, 16 Apr 2021 22:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:58:52.901558
- Title: Learning To Count Everything
- Title(参考訳): すべてを数えることを学ぶ
- Authors: Viresh Ranjan, Udbhav Sharma, Thu Nguyen, Minh Hoai
- Abstract要約: あらゆるカテゴリからオブジェクトを数えることに興味があります。つまり、そのカテゴリからいくつかのアノテーション付きインスタンスだけを与えられたカテゴリからオブジェクトを数えることです。
本稿では,クエリ画像からいくつかの例のオブジェクトとともにクエリ画像を抽出し,クエリ画像に注目するオブジェクトが存在する場合の密度マップを予測する手法を提案する。
また、テスト時に新しい視覚カテゴリにネットワークを適応させるための新しい適応戦略も提示し、この新しいカテゴリのほんの数例のオブジェクトのみを使用します。
- 参考スコア(独自算出の注目度): 16.1159048148031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing works on visual counting primarily focus on one specific category at
a time, such as people, animals, and cells. In this paper, we are interested in
counting everything, that is to count objects from any category given only a
few annotated instances from that category. To this end, we pose counting as a
few-shot regression task. To tackle this task, we present a novel method that
takes a query image together with a few exemplar objects from the query image
and predicts a density map for the presence of all objects of interest in the
query image. We also present a novel adaptation strategy to adapt our network
to any novel visual category at test time, using only a few exemplar objects
from the novel category. We also introduce a dataset of 147 object categories
containing over 6000 images that are suitable for the few-shot counting task.
The images are annotated with two types of annotation, dots and bounding boxes,
and they can be used for developing few-shot counting models. Experiments on
this dataset shows that our method outperforms several state-of-the-art object
detectors and few-shot counting approaches. Our code and dataset can be found
at https://github.com/cvlab-stonybrook/LearningToCountEverything.
- Abstract(参考訳): 視覚計数に関する既存の研究は、主に人間、動物、細胞といった1つの特定のカテゴリーに焦点を合わせている。
本稿では、そのカテゴリからいくつかの注釈付きインスタンスのみを与えられた任意のカテゴリからオブジェクトを数えることに関心がある。
この目的のために、数を数ショット回帰タスクとして位置づける。
この課題に対処するために、クエリ画像からいくつかの例のオブジェクトとともにクエリ画像を取り込み、クエリ画像に注目するオブジェクトが存在する場合の密度マップを予測する新しい方法を提案する。
また,ネットワークをテスト時に新たな視覚カテゴリに適応させるための新しい適応戦略を提案する。
また,数秒カウントタスクに適した6000以上の画像を含む147個のオブジェクトカテゴリのデータセットも紹介する。
画像は2種類のアノテーション、ドットとバウンディングボックスで注釈付けされており、少数ショットカウントモデルの開発に使用することができる。
このデータセットを用いた実験により,本手法はいくつかの最先端の物体検出器および少数ショットカウント手法よりも優れていることがわかった。
コードとデータセットはhttps://github.com/cvlab-stonybrook/LearningToCountEverything.comで確認できます。
関連論文リスト
- Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Learning from Pseudo-labeled Segmentation for Multi-Class Object
Counting [35.652092907690694]
CAC(Class-Agnostic counting)は、様々な領域にまたがる多くの潜在的な応用がある。
目標は、いくつかの注釈付き例に基づいて、テスト中に任意のカテゴリのオブジェクトを数えることである。
擬似ラベルマスクを用いて学習したセグメンテーションモデルは、任意のマルチクラス画像に対して効果的に対象をローカライズできることを示す。
論文 参考訳(メタデータ) (2023-07-15T01:33:19Z) - Few-shot Object Counting and Detection [25.61294147822642]
我々は、ターゲットオブジェクトクラスのいくつかの例のバウンディングボックスを考慮に入れ、ターゲットクラスのすべてのオブジェクトをカウントし、検出する新しいタスクに取り組む。
このタスクは、数ショットのオブジェクトカウントと同じ監督を共有しますが、オブジェクトのバウンディングボックスと総オブジェクトカウントを出力します。
本稿では,新しい2段階トレーニング戦略と,新しい不確実性に留意した小ショットオブジェクト検出器であるCounting-DETRを紹介する。
論文 参考訳(メタデータ) (2022-07-22T10:09:18Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Object Counting: You Only Need to Look at One [28.49828300257672]
本稿では,ワンショットオブジェクトカウントの課題に取り組むことを目的とする。
以前は目に見えない新しいカテゴリオブジェクトを含むイメージが与えられた場合、タスクの目標は、希望するカテゴリのすべてのインスタンスを1つのサポートされたバウンディングボックスの例でカウントすることである。
ひとつのインスタンス(LaoNet)を見るだけでよいカウントモデルを提案する。
論文 参考訳(メタデータ) (2021-12-11T14:22:05Z) - Single Image Object Counting and Localizing using Active-Learning [4.56877715768796]
単一画像シナリオにおける反復オブジェクトのカウントとローカライズのための新しい手法を提案する。
本手法は,少数のアクティブ・ラーニング・イテレーションにおいて,入力画像から注意深く収集したラベルの小さなセットに対してCNNを訓練する。
既存のユーザ支援カウント法と比較すると,ユーザマウスのクリック数,ランニングタイムの計測と位置決めの精度の観点から,能動的学習が最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2021-11-16T11:29:21Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Dilated-Scale-Aware Attention ConvNet For Multi-Class Object Counting [18.733301622920102]
多クラスオブジェクトカウントは、オブジェクトカウントタスクの適用範囲を広げる。
マルチターゲット検出タスクは、いくつかのシナリオでマルチクラスオブジェクトカウントを実現することができる。
ポイントレベルのアノテーションに基づく簡便かつ効率的なカウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T08:38:28Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Rethinking Object Detection in Retail Stores [55.359582952686175]
そこで我々はLocountと略される新しいタスク、同時にオブジェクトのローカライゼーションとカウントを提案する。
Locountは、関心のあるオブジェクトのグループをインスタンス数でローカライズするアルゴリズムを必要とする。
大規模オブジェクトのローカライズと数えるデータセットを小売店で収集する。
論文 参考訳(メタデータ) (2020-03-18T14:01:54Z) - Captioning Images with Novel Objects via Online Vocabulary Expansion [62.525165808406626]
新規なオブジェクトを含む画像から記述を生成するための低コストな手法を提案する。
本稿では,少数の画像特徴量から推定したオブジェクトの単語埋め込みを用いて,新たなオブジェクトで画像を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-03-06T16:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。