論文の概要: Object Counting: You Only Need to Look at One
- arxiv url: http://arxiv.org/abs/2112.05993v1
- Date: Sat, 11 Dec 2021 14:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:13:10.064119
- Title: Object Counting: You Only Need to Look at One
- Title(参考訳): オブジェクトのカウント:一つだけ見るだけでよい
- Authors: Hui Lin, Xiaopeng Hong, Yabin Wang
- Abstract要約: 本稿では,ワンショットオブジェクトカウントの課題に取り組むことを目的とする。
以前は目に見えない新しいカテゴリオブジェクトを含むイメージが与えられた場合、タスクの目標は、希望するカテゴリのすべてのインスタンスを1つのサポートされたバウンディングボックスの例でカウントすることである。
ひとつのインスタンス(LaoNet)を見るだけでよいカウントモデルを提案する。
- 参考スコア(独自算出の注目度): 28.49828300257672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to tackle the challenging task of one-shot object counting.
Given an image containing novel, previously unseen category objects, the goal
of the task is to count all instances in the desired category with only one
supporting bounding box example. To this end, we propose a counting model by
which you only need to Look At One instance (LaoNet). First, a feature
correlation module combines the Self-Attention and Correlative-Attention
modules to learn both inner-relations and inter-relations. It enables the
network to be robust to the inconsistency of rotations and sizes among
different instances. Second, a Scale Aggregation mechanism is designed to help
extract features with different scale information. Compared with existing
few-shot counting methods, LaoNet achieves state-of-the-art results while
learning with a high convergence speed. The code will be available soon.
- Abstract(参考訳): 本稿では,ワンショットオブジェクトカウントの課題に取り組むことを目的とする。
未発見のカテゴリオブジェクトを含むイメージが与えられた場合、タスクの目標は、ひとつの境界ボックスの例しか持たない、望ましいカテゴリ内のすべてのインスタンスを数えることである。
この目的のために、私たちはLook At Oneインスタンス(LaoNet)のみを必要とするカウントモデルを提案します。
まず、特徴相関モジュールは自己関連モジュールと相関関連モジュールを組み合わせて、内部関係と相互関係の両方を学ぶ。
これにより、異なるインスタンス間の回転とサイズの不整合に対してネットワークが堅牢になる。
第二に、スケール集約メカニズムは、異なるスケール情報を持つ特徴の抽出を支援するように設計されている。
LaoNetは、既存の数ショットカウント法と比較して、収束速度の高い学習をしながら最先端の結果を達成する。
コードはもうすぐ入手できる。
関連論文リスト
- Learning from Exemplars for Interactive Image Segmentation [15.37506525730218]
同一カテゴリにおける1つのオブジェクトと複数のオブジェクトの両方に対して、新しい対話的セグメンテーションフレームワークを導入する。
当社のモデルでは,ターゲットIoUの85%と90%を達成するために,クリック数が2回削減されるため,ユーザの労力を約15%削減する。
論文 参考訳(メタデータ) (2024-06-17T12:38:01Z) - OMG-Seg: Is One Model Good Enough For All Segmentation? [83.17068644513144]
OMG-Segは、タスク固有のクエリと出力を持つトランスフォーマーベースのエンコーダデコーダアーキテクチャである。
OMG-Segは10以上の異なるセグメンテーションタスクをサポートできるが、計算とパラメータのオーバーヘッドを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2024-01-18T18:59:34Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Learning from Pseudo-labeled Segmentation for Multi-Class Object
Counting [35.652092907690694]
CAC(Class-Agnostic counting)は、様々な領域にまたがる多くの潜在的な応用がある。
目標は、いくつかの注釈付き例に基づいて、テスト中に任意のカテゴリのオブジェクトを数えることである。
擬似ラベルマスクを用いて学習したセグメンテーションモデルは、任意のマルチクラス画像に対して効果的に対象をローカライズできることを示す。
論文 参考訳(メタデータ) (2023-07-15T01:33:19Z) - Learning To Count Everything [16.1159048148031]
あらゆるカテゴリからオブジェクトを数えることに興味があります。つまり、そのカテゴリからいくつかのアノテーション付きインスタンスだけを与えられたカテゴリからオブジェクトを数えることです。
本稿では,クエリ画像からいくつかの例のオブジェクトとともにクエリ画像を抽出し,クエリ画像に注目するオブジェクトが存在する場合の密度マップを予測する手法を提案する。
また、テスト時に新しい視覚カテゴリにネットワークを適応させるための新しい適応戦略も提示し、この新しいカテゴリのほんの数例のオブジェクトのみを使用します。
論文 参考訳(メタデータ) (2021-04-16T22:45:58Z) - Dilated-Scale-Aware Attention ConvNet For Multi-Class Object Counting [18.733301622920102]
多クラスオブジェクトカウントは、オブジェクトカウントタスクの適用範囲を広げる。
マルチターゲット検出タスクは、いくつかのシナリオでマルチクラスオブジェクトカウントを実現することができる。
ポイントレベルのアノテーションに基づく簡便かつ効率的なカウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T08:38:28Z) - A Few-Shot Sequential Approach for Object Counting [63.82757025821265]
画像中のオブジェクトに逐次出席するクラスアテンション機構を導入し,それらの特徴を抽出する。
提案手法は点レベルのアノテーションに基づいて訓練され,モデルのクラス依存的・クラス依存的側面を乱す新しい損失関数を用いる。
本稿では,FSODやMS COCOなど,さまざまなオブジェクトカウント/検出データセットについて報告する。
論文 参考訳(メタデータ) (2020-07-03T18:23:39Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。