論文の概要: Interactive Class-Agnostic Object Counting
- arxiv url: http://arxiv.org/abs/2309.05277v1
- Date: Mon, 11 Sep 2023 07:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:28:42.277395
- Title: Interactive Class-Agnostic Object Counting
- Title(参考訳): 対話型クラス非依存オブジェクトカウント
- Authors: Yifeng Huang, Viresh Ranjan, and Minh Hoai
- Abstract要約: 本フレームワークは,フィードバックを収集するユーザフレンドリなビジュアライザと,それを組み込む効率的なメカニズムの2つの主要コンポーネントから構成される。
ユーザは、明らかなカウントエラーのある領域を選択し、その中の推定オブジェクト数の範囲を指定することで、フィードバックを提供することができる。
FSCD-LVIS と FSC-147 の2つの挑戦的クラス非依存オブジェクトカウントベンチマークを用いた実験により,複数の最先端ビジュアルカウンタの平均絶対誤差を,最小限のユーザ入力で約30%から40%削減できることを示した。
- 参考スコア(独自算出の注目度): 26.480713465591453
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose a novel framework for interactive class-agnostic object counting,
where a human user can interactively provide feedback to improve the accuracy
of a counter. Our framework consists of two main components: a user-friendly
visualizer to gather feedback and an efficient mechanism to incorporate it. In
each iteration, we produce a density map to show the current prediction result,
and we segment it into non-overlapping regions with an easily verifiable number
of objects. The user can provide feedback by selecting a region with obvious
counting errors and specifying the range for the estimated number of objects
within it. To improve the counting result, we develop a novel adaptation loss
to force the visual counter to output the predicted count within the
user-specified range. For effective and efficient adaptation, we propose a
refinement module that can be used with any density-based visual counter, and
only the parameters in the refinement module will be updated during adaptation.
Our experiments on two challenging class-agnostic object counting benchmarks,
FSCD-LVIS and FSC-147, show that our method can reduce the mean absolute error
of multiple state-of-the-art visual counters by roughly 30% to 40% with minimal
user input. Our project can be found at
https://yifehuang97.github.io/ICACountProjectPage/.
- Abstract(参考訳): 本稿では,対話型クラス非依存オブジェクトカウントのための新しいフレームワークを提案する。
本フレームワークは,フィードバックを収集するユーザフレンドリなビジュアライザと,それを組み込む効率的なメカニズムの2つの主要コンポーネントから構成される。
各イテレーションにおいて、現在の予測結果を示す密度マップを作成し、容易に検証可能なオブジェクト数で重複しない領域に分割する。
ユーザは、明らかなカウントエラーのある領域を選択し、その中の推定オブジェクト数の範囲を指定することで、フィードバックを提供することができる。
カウント結果を改善するために,視覚カウンタに予測カウントをユーザ特定範囲内に出力させる新しい適応損失を開発した。
有効かつ効率的な適応のために,任意の密度に基づく視覚カウンタで使用可能な改良モジュールを提案し,修正モジュール内のパラメータのみを適応中に更新する。
FSCD-LVIS と FSC-147 の2つの挑戦的クラス非依存オブジェクトカウントベンチマークを用いた実験により,複数の最先端ビジュアルカウンタの平均絶対誤差を,最小限のユーザ入力で約30%から40%削減できることを示した。
私たちのプロジェクトはhttps://yifehuang97.github.io/ICACountProjectPage/で確認できます。
関連論文リスト
- Iterative Object Count Optimization for Text-to-image Diffusion Models [59.03672816121209]
画像とテキストのペアから学ぶ現在のモデルは、本質的にカウントに苦慮している。
本稿では,物体のポテンシャルを集計する計数モデルから得られた計数損失に基づいて生成画像の最適化を提案する。
様々なオブジェクトの生成を評価し,精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-08-21T15:51:46Z) - Zero-shot Object Counting with Good Exemplars [35.7544908318547]
Zero-shot Object counting (ZOC)は、テスト中のオブジェクトクラス名のみを使用して、手動のアノテーションを必要とせずに、イメージ内のオブジェクトを列挙することを目的としている。
視覚アソシエーションに基づくゼロショットオブジェクトカウント(VA-Count)フレームワークを提案する。
VA-Count は Exemplar Enhancement Module (EEM) と Noise Suppression Module (NSM) から構成される。
論文 参考訳(メタデータ) (2024-07-06T03:37:22Z) - CountGD: Multi-Modal Open-World Counting [54.88804890463491]
本稿では,画像中のオープン語彙オブジェクトの数値化の一般化と精度の向上を目的とする。
本稿では,最初のオープンワールドカウントモデルであるCountGDを紹介した。
論文 参考訳(メタデータ) (2024-07-05T16:20:48Z) - DAVE -- A Detect-and-Verify Paradigm for Low-Shot Counting [10.461109095311546]
ローショットカウンタは、画像の例の少ないものまたは全くないものに基づいて、選択されたカテゴリに対応するオブジェクトの数を推定する。
現在の最先端技術では、対象位置密度マップの合計として総計を見積もっているが、個々の対象位置と大きさは提供していない。
本稿では,検出と検証のパラダイムに基づく低ショットカウンタであるDAVEを提案する。
論文 参考訳(メタデータ) (2024-04-25T14:07:52Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - DFA: Dynamic Feature Aggregation for Efficient Video Object Detection [15.897168900583774]
本稿では,機能拡張のためのフレームを適応的に選択するバニラ動的アグリゲーションモジュールを提案する。
バニラ動的アグリゲーションモジュールを、より効果的で再構成可能なデフォルマブルバージョンに拡張します。
提案手法と統合したImageNet VIDベンチマークでは,FGFAとSELSAがそれぞれ31%,SELSAが76%向上した。
論文 参考訳(メタデータ) (2022-10-02T17:54:15Z) - Single Image Object Counting and Localizing using Active-Learning [4.56877715768796]
単一画像シナリオにおける反復オブジェクトのカウントとローカライズのための新しい手法を提案する。
本手法は,少数のアクティブ・ラーニング・イテレーションにおいて,入力画像から注意深く収集したラベルの小さなセットに対してCNNを訓練する。
既存のユーザ支援カウント法と比較すると,ユーザマウスのクリック数,ランニングタイムの計測と位置決めの精度の観点から,能動的学習が最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2021-11-16T11:29:21Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - FAIRS -- Soft Focus Generator and Attention for Robust Object
Segmentation from Extreme Points [70.65563691392987]
本稿では,ユーザ入力からオブジェクトのセグメンテーションを極端点と補正クリックの形で生成する手法を提案する。
提案手法は,エクストリームポイント,クリック誘導,修正クリックを原則として組み込んだ,高品質なトレーニングデータを生成する能力とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2020-04-04T22:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。