論文の概要: ABC Easy as 123: A Blind Counter for Exemplar-Free Multi-Class
Class-agnostic Counting
- arxiv url: http://arxiv.org/abs/2309.04820v1
- Date: Sat, 9 Sep 2023 15:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 16:09:24.244115
- Title: ABC Easy as 123: A Blind Counter for Exemplar-Free Multi-Class
Class-agnostic Counting
- Title(参考訳): abc easy as 123:exemplar-free multi-class class-agnostic countingのブラインドカウンタ
- Authors: Michael A. Hobley and Victor A. Prisacariu
- Abstract要約: クラスに依存しないカウントメソッドは任意のクラスのオブジェクトを列挙する。
以前の作業では、カウントされる型の例のセットか、イメージに1つのタイプのオブジェクトしか含まれていないため、有用性が制限されていた。
我々は,MCAC(Multi-class-Agnostic Counting dataset)とABC123(A Blind Counter)を提案する。
ABC123は、トレーニングや推論中に型を使用せずに、複数のタイプのオブジェクトを同時にカウントできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-agnostic counting methods enumerate objects of an arbitrary class,
providing tremendous utility in many fields. Prior works have limited
usefulness as they require either a set of examples of the type to be counted
or that the image contains only a single type of object. A significant factor
in these shortcomings is the lack of a dataset to properly address counting in
settings with more than one kind of object present. To address these issues, we
propose the first Multi-class, Class-Agnostic Counting dataset (MCAC) and A
Blind Counter (ABC123), a method that can count multiple types of objects
simultaneously without using examples of type during training or inference.
ABC123 introduces a new paradigm where instead of requiring exemplars to guide
the enumeration, examples are found after the counting stage to help a user
understand the generated outputs. We show that ABC123 outperforms contemporary
methods on MCAC without the requirement of human in-the-loop annotations. We
also show that this performance transfers to FSC-147, the standard
class-agnostic counting dataset.
- Abstract(参考訳): クラスに依存しないカウントメソッドは任意のクラスのオブジェクトを列挙します。
先行作品は、カウントされるタイプの例のセットを必要とするか、画像に1つのタイプのオブジェクトだけが含まれるため、有用性が限られている。
これらの欠点の重要な要因は、複数の種類のオブジェクトが存在する設定におけるカウントに適切に対処するデータセットがないことである。
これらの問題に対処するために、トレーニングや推論中に型の実例を使わずに複数の種類のオブジェクトを同時にカウントする手法であるMCAC(Multi-class-Agnostic Counting dataset)とABC123(A Blind Counter)を提案する。
ABC123は新しいパラダイムを導入し、例題を列挙をガイドする代わりに、ユーザが生成した出力を理解するのを助けるために、カウントステージの後に例が見つかる。
abc123は,人間のループ内アノテーションを必要とせず,mccの現代的手法を上回っている。
また,この性能は,標準クラス非依存の計数データセットであるfsc-147に伝達されることを示した。
関連論文リスト
- FastGAS: Fast Graph-based Annotation Selection for In-Context Learning [53.17606395275021]
インコンテキスト学習(ICL)は、大規模言語モデル(LLM)に対して、一連のトレーニングインスタンスをプロンプトとして使用することにより、新しいタスクに対処する権限を与える。
既存の手法では、アノテーションのラベルなし例のサブセットを選択する方法が提案されている。
本稿では,高品質なインスタンスを効率的に識別するグラフベースの選択手法であるFastGASを提案する。
論文 参考訳(メタデータ) (2024-06-06T04:05:54Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - OmniCount: Multi-label Object Counting with Semantic-Geometric Priors [42.38571663534819]
本稿では,オープン語彙フレームワークを用いた複数のオブジェクトカテゴリの同時カウントを実現するための,より実践的なアプローチを提案する。
我々のソリューションであるOmniCountは、事前訓練されたモデルから意味的および幾何学的な洞察(優先順位)を用いて、ユーザが指定した複数のカテゴリのオブジェクトをカウントすることで際立っている。
OmniCount-191の包括的な評価は、他の主要なベンチマークとともに、OmniCountの例外的なパフォーマンスを示し、既存のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-08T16:38:11Z) - AFreeCA: Annotation-Free Counting for All [17.581015609730017]
対象物に関連する特徴を学習するための教師なしソート手法を導入する。
また,画像を確実にカウント可能な被写体を含むパッチに分割する密度分類器誘導方式を提案する。
論文 参考訳(メタデータ) (2024-03-07T23:18:34Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Learning from Pseudo-labeled Segmentation for Multi-Class Object
Counting [35.652092907690694]
CAC(Class-Agnostic counting)は、様々な領域にまたがる多くの潜在的な応用がある。
目標は、いくつかの注釈付き例に基づいて、テスト中に任意のカテゴリのオブジェクトを数えることである。
擬似ラベルマスクを用いて学習したセグメンテーションモデルは、任意のマルチクラス画像に対して効果的に対象をローカライズできることを示す。
論文 参考訳(メタデータ) (2023-07-15T01:33:19Z) - Learning to Count Anything: Reference-less Class-agnostic Counting with
Weak Supervision [11.037585450795357]
カウントは、その中核として、反復認識タスクであることを示す。
我々は,自己監督型視覚変換器と軽量のカウントレグレッションヘッドを組み合わせることで,競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2022-05-20T14:26:38Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。