論文の概要: Learning to Count Anything: Reference-less Class-agnostic Counting with
Weak Supervision
- arxiv url: http://arxiv.org/abs/2205.10203v1
- Date: Fri, 20 May 2022 14:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:12:31.160865
- Title: Learning to Count Anything: Reference-less Class-agnostic Counting with
Weak Supervision
- Title(参考訳): あらゆるものを数えることを学ぶ:弱スーパービジョンによる参照なしのクラス非依存カウント
- Authors: Michael Hobley, Victor Prisacariu
- Abstract要約: カウントは、その中核として、反復認識タスクであることを示す。
我々は,自己監督型視覚変換器と軽量のカウントレグレッションヘッドを組み合わせることで,競合する結果が得られることを示した。
- 参考スコア(独自算出の注目度): 11.037585450795357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object counting is a seemingly simple task with diverse real-world
applications. Most counting methods focus on counting instances of specific,
known classes. While there are class-agnostic counting methods that can
generalise to unseen classes, these methods require reference images to define
the type of object to be counted, as well as instance annotations during
training. We identify that counting is, at its core, a repetition-recognition
task and show that a general feature space, with global context, is sufficient
to enumerate instances in an image without a prior on the object type present.
Specifically, we demonstrate that self-supervised vision transformer features
combined with a lightweight count regression head achieve competitive results
when compared to other class-agnostic counting tasks without the need for
point-level supervision or reference images. Our method thus facilitates
counting on a constantly changing set composition. To the best of our
knowledge, we are both the first reference-less class-agnostic counting method
as well as the first weakly-supervised class-agnostic counting method.
- Abstract(参考訳): オブジェクトのカウントは、様々な実世界のアプリケーションを持つ一見単純なタスクである。
ほとんどのカウントメソッドは、特定の既知のクラスのインスタンスをカウントすることに焦点を当てている。
見えないクラスに一般化できるクラスに依存しないカウントメソッドはあるが、これらのメソッドはカウント対象の型を定義するために参照イメージと、トレーニング中のインスタンスアノテーションを必要とする。
カウントは、その中核となる繰り返し認識タスクであり、グローバルなコンテキストを持つ一般的な特徴空間は、オブジェクトタイプに先行しない画像中のインスタンスを列挙するのに十分であることを示す。
具体的には,自己教師付き視覚トランスフォーマー機能と軽量なカウントレグレッションヘッドを組み合わせることで,ポイントレベルの監督や参照画像を必要としない他のクラス非依存のカウントタスクと比較して,競合的な結果が得られることを示す。
そこで本手法は,常に変化する集合構成のカウントを容易にする。
私たちの知る限りでは、最初の参照なしクラス非依存カウントメソッドと、最初の弱い教師付きクラス非依存カウントメソッドの両方です。
関連論文リスト
- Mind the Prompt: A Novel Benchmark for Prompt-based Class-Agnostic Counting [8.000723123087473]
CAC(Class-Agnostic counting)は、コンピュータビジョンにおける最近の課題であり、モデルトレーニング中に見たことのない任意のオブジェクトクラスのインスタンス数を推定することを目的としている。
Prompt-Aware Countingベンチマークを導入する。このベンチマークは2つのターゲットテストで構成されており、それぞれに適切な評価指標が伴っている。
論文 参考訳(メタデータ) (2024-09-24T10:35:42Z) - OmniCount: Multi-label Object Counting with Semantic-Geometric Priors [42.38571663534819]
本稿では,オープン語彙フレームワークを用いた複数のオブジェクトカテゴリの同時カウントを実現するための,より実践的なアプローチを提案する。
我々のソリューションであるOmniCountは、事前訓練されたモデルから意味的および幾何学的な洞察(優先順位)を用いて、ユーザが指定した複数のカテゴリのオブジェクトをカウントすることで際立っている。
OmniCount-191の包括的な評価は、他の主要なベンチマークとともに、OmniCountの例外的なパフォーマンスを示し、既存のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-08T16:38:11Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Learning to Count without Annotations [23.506936202158013]
我々は、手動のアノテーションを必要とせずに、このタスクを学習できるモデルUnCounTRを提案する。
任意の種類のオブジェクトと数をカバーするリッチな学習信号を提供する訓練用サンプルとして,様々なペーストされたオブジェクトを用いた「自己相関」画像を構築した。
提案手法は既存の教師なし表現とセグメンテーション技術に基づいて,手動の監督なしに参照ベースのカウント機能を示す。
論文 参考訳(メタデータ) (2023-07-17T17:48:06Z) - CounTR: Transformer-based Generalised Visual Counting [94.54725247039441]
我々は任意の意味圏からオブジェクト数を数える計算モデルを開発し、任意の数の「例」を用いて計算する。
FSC-147のような大規模カウントベンチマークの徹底的なアブレーション研究を行い、ゼロおよび少数ショット設定の両方で最先端の性能を示す。
論文 参考訳(メタデータ) (2022-08-29T17:02:45Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Single Image Object Counting and Localizing using Active-Learning [4.56877715768796]
単一画像シナリオにおける反復オブジェクトのカウントとローカライズのための新しい手法を提案する。
本手法は,少数のアクティブ・ラーニング・イテレーションにおいて,入力画像から注意深く収集したラベルの小さなセットに対してCNNを訓練する。
既存のユーザ支援カウント法と比較すると,ユーザマウスのクリック数,ランニングタイムの計測と位置決めの精度の観点から,能動的学習が最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2021-11-16T11:29:21Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Dilated-Scale-Aware Attention ConvNet For Multi-Class Object Counting [18.733301622920102]
多クラスオブジェクトカウントは、オブジェクトカウントタスクの適用範囲を広げる。
マルチターゲット検出タスクは、いくつかのシナリオでマルチクラスオブジェクトカウントを実現することができる。
ポイントレベルのアノテーションに基づく簡便かつ効率的なカウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T08:38:28Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。