論文の概要: Learning to Count without Annotations
- arxiv url: http://arxiv.org/abs/2307.08727v2
- Date: Fri, 29 Mar 2024 17:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 20:46:32.747559
- Title: Learning to Count without Annotations
- Title(参考訳): アノテーションなしで数えることを学ぶ
- Authors: Lukas Knobel, Tengda Han, Yuki M. Asano,
- Abstract要約: 我々は、手動のアノテーションを必要とせずに、このタスクを学習できるモデルUnCounTRを提案する。
任意の種類のオブジェクトと数をカバーするリッチな学習信号を提供する訓練用サンプルとして,様々なペーストされたオブジェクトを用いた「自己相関」画像を構築した。
提案手法は既存の教師なし表現とセグメンテーション技術に基づいて,手動の監督なしに参照ベースのカウント機能を示す。
- 参考スコア(独自算出の注目度): 23.506936202158013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent supervised methods for reference-based object counting continue to improve the performance on benchmark datasets, they have to rely on small datasets due to the cost associated with manually annotating dozens of objects in images. We propose UnCounTR, a model that can learn this task without requiring any manual annotations. To this end, we construct "Self-Collages", images with various pasted objects as training samples, that provide a rich learning signal covering arbitrary object types and counts. Our method builds on existing unsupervised representations and segmentation techniques to successfully demonstrate for the first time the ability of reference-based counting without manual supervision. Our experiments show that our method not only outperforms simple baselines and generic models such as FasterRCNN and DETR, but also matches the performance of supervised counting models in some domains.
- Abstract(参考訳): 最近の参照ベースのオブジェクトカウントのための教師付きメソッドは、ベンチマークデータセットのパフォーマンスを改善し続けているが、画像に数十のオブジェクトを手動でアノテートするコストのため、小さなデータセットに依存する必要がある。
我々は、手動のアノテーションを必要とせずに、このタスクを学習できるモデルUnCounTRを提案する。
この目的のために,任意の対象の種類や数量をカバーするリッチな学習信号を提供する,様々なペーストされたオブジェクトをトレーニングサンプルとして構築する。
提案手法は既存の教師なし表現とセグメンテーション技術に基づいて,手動の監督なしに参照ベースのカウント機能を示す。
実験の結果,本手法は単純なベースラインやFasterRCNNやDETRといったジェネリックモデルよりも優れるだけでなく,いくつかの領域における教師付きカウントモデルの性能と一致していることがわかった。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - A Simple-but-effective Baseline for Training-free Class-Agnostic
Counting [30.792198686654075]
CAC(Class-Agnostic Counting)は、いくつかの参照例だけで、与えられた画像内のオブジェクトを正確にカウントすることを目指している。
近年の取り組みでは、既存の基礎モデルを利用することで、トレーニングなしでこれを達成できることが示されている。
我々は、このパフォーマンスギャップを効果的に橋渡しし、強力なベースラインとして機能する、トレーニング不要のソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-03T07:19:50Z) - Semi-supervised learning made simple with self-supervised clustering [65.98152950607707]
自己教師付き学習モデルは、人間のアノテーションを必要とせずにリッチな視覚表現を学習することが示されている。
本稿では,クラスタリングに基づく自己教師付き手法を半教師付き学習者へと変換する,概念的に単純だが経験的に強力な手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T01:09:18Z) - Learning to Count Anything: Reference-less Class-agnostic Counting with
Weak Supervision [11.037585450795357]
カウントは、その中核として、反復認識タスクであることを示す。
我々は,自己監督型視覚変換器と軽量のカウントレグレッションヘッドを組み合わせることで,競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2022-05-20T14:26:38Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Self-Supervised Prototypical Transfer Learning for Few-Shot
Classification [11.96734018295146]
自己教師ありトランスファー学習アプローチ ProtoTransferは、数ショットタスクにおいて、最先端の教師なしメタラーニング手法より優れている。
ドメインシフトを用いた数ショットの実験では、我々のアプローチは教師付きメソッドに匹敵する性能を持つが、ラベルの桁数は桁違いである。
論文 参考訳(メタデータ) (2020-06-19T19:00:11Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Towards Using Count-level Weak Supervision for Crowd Counting [55.58468947486247]
本稿では,少数の位置レベルのアノテーション(十分に教師された)と大量のカウントレベルのアノテーション(弱教師付き)からモデルを学習する,弱教師付き群集カウントの問題について検討する。
我々は、生成した密度マップの自由を制限するための正規化を構築するために、単純なyet効果のトレーニング戦略、すなわちMultiple Auxiliary Tasks Training (MATT)を考案した。
論文 参考訳(メタデータ) (2020-02-29T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。