論文の概要: A Unified Object Counting Network with Object Occupation Prior
- arxiv url: http://arxiv.org/abs/2212.14193v1
- Date: Thu, 29 Dec 2022 06:42:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 16:40:49.147853
- Title: A Unified Object Counting Network with Object Occupation Prior
- Title(参考訳): 作業前を対象とする統一オブジェクトカウントネットワーク
- Authors: Shengqin Jiang, Qing Wang, Fengna Cheng, Yuankai Qi, Qingshan Liu
- Abstract要約: 既存のオブジェクトカウントタスクは、単一のオブジェクトクラス用に設計されている。
現実の世界で新しいクラスで新しいデータに遭遇するのは避けられない。
本稿では,この課題に対処する最初の試みとして,統一オブジェクトカウントネットワークを提案する。
- 参考スコア(独自算出の注目度): 32.32999623924954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The counting task, which plays a fundamental rule in numerous applications
(e.g., crowd counting, traffic statistics), aims to predict the number of
objects with various densities. Existing object counting tasks are designed for
a single object class. However, it is inevitable to encounter newly coming data
with new classes in our real world. We name this scenario as \textit{evolving
object counting}. In this paper, we build the first evolving object counting
dataset and propose a unified object counting network as the first attempt to
address this task. The proposed model consists of two key components: a
class-agnostic mask module and a class-increment module. The class-agnostic
mask module learns generic object occupation prior via predicting a
class-agnostic binary mask (e.g., 1 denotes there exists an object at the
considering position in an image and 0 otherwise). The class-increment module
is used to handle new coming classes and provides discriminative class guidance
for density map prediction. The combined outputs of class-agnostic mask module
and image feature extractor are used to predict the final density map. When new
classes come, we first add new neural nodes into the last regression and
classification layers of this module. Then, instead of retraining the model
from scratch, we utilize knowledge distilling to help the model remember what
have already learned about previous object classes. We also employ a support
sample bank to store a small number of typical training samples of each class,
which are used to prevent the model from forgetting key information of old
data. With this design, our model can efficiently and effectively adapt to new
coming classes while keeping good performance on already seen data without
large-scale retraining. Extensive experiments on the collected dataset
demonstrate the favorable performance.
- Abstract(参考訳): 数え上げタスクは、多数のアプリケーション(例えば、群衆の数え上げ、トラフィック統計)において基本的なルールであり、様々な密度を持つオブジェクトの数を予測することを目的としている。
既存のオブジェクトカウントタスクは単一のオブジェクトクラスのために設計されます。
しかし、私たちの現実世界で新しいクラスで新しいデータに遭遇するのは避けられない。
このシナリオを \textit{evolving object counting} と命名します。
本稿では,最初の進化するオブジェクト計数データセットを構築し,この課題に対する最初の試みとして統一オブジェクト計数ネットワークを提案する。
提案モデルは,クラスに依存しないマスクモジュールとクラスインクリメントモジュールの2つの重要なコンポーネントから構成される。
クラス非依存マスクモジュールは、クラス非依存なバイナリマスクを予測して、汎用オブジェクトの占有を事前に学習する(例えば、1は、画像中の考慮位置にあるオブジェクトが存在し、それ以外は0であることを示す)。
クラスインクリメントモジュールは、新しい来るべきクラスを扱うために使われ、密度マップ予測のための判別クラスガイダンスを提供する。
クラス非依存マスクモジュールと画像特徴抽出器の組合せ出力を用いて最終密度マップを予測する。
新しいクラスが来たら、まずこのモジュールの最後の回帰層と分類層に新しいニューラルネットワークを追加します。
そして、モデルをスクラッチから再トレーニングするのではなく、モデルが以前のオブジェクトクラスについて既に学んだことを思い出すのに役立つ知識蒸留を利用する。
また、各クラスの典型的なトレーニングサンプルを少数のサポートサンプルバンクに格納することで、モデルが古いデータのキー情報を忘れないようにしています。
この設計により,大規模再トレーニングを行わずに,既存のデータのパフォーマンスを維持しつつ,新しいクラスに効率的に適応することができる。
収集したデータセットに関する広範な実験は、優れたパフォーマンスを示している。
関連論文リスト
- Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Learning from Pseudo-labeled Segmentation for Multi-Class Object
Counting [35.652092907690694]
CAC(Class-Agnostic counting)は、様々な領域にまたがる多くの潜在的な応用がある。
目標は、いくつかの注釈付き例に基づいて、テスト中に任意のカテゴリのオブジェクトを数えることである。
擬似ラベルマスクを用いて学習したセグメンテーションモデルは、任意のマルチクラス画像に対して効果的に対象をローカライズできることを示す。
論文 参考訳(メタデータ) (2023-07-15T01:33:19Z) - DoUnseen: Tuning-Free Class-Adaptive Object Detection of Unseen Objects
for Robotic Grasping [1.6317061277457001]
我々は、微調整を必要としないオブジェクト検出器を開発し、オブジェクトのいくつかの画像をキャプチャすることで、任意のオブジェクトをクラスとして追加できる。
クラス適応型オブジェクト検出器を未知のデータセット上で評価し、それらのデータセット上で訓練されたMask R-CNNと比較する。
論文 参考訳(メタデータ) (2023-04-06T02:45:39Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Fuzzy Simplicial Networks: A Topology-Inspired Model to Improve Task
Generalization in Few-shot Learning [1.0062040918634414]
少ないショット学習アルゴリズムは、限られたデータで新しいタスクをうまく一般化するように設計されている。
本稿では,Fizzy Simplicial Networks (FSN) と呼ばれる,トポロジから構築したモデルを用いて,限られたデータから各クラスをより柔軟に表現する手法を提案する。
論文 参考訳(メタデータ) (2020-09-23T17:01:09Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。