論文の概要: Object-conditioned Bag of Instances for Few-Shot Personalized Instance Recognition
- arxiv url: http://arxiv.org/abs/2404.01397v1
- Date: Mon, 1 Apr 2024 18:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 20:47:06.192106
- Title: Object-conditioned Bag of Instances for Few-Shot Personalized Instance Recognition
- Title(参考訳): Few-Shotパーソナライズされたインスタンス認識のためのオブジェクト条件付きインスタンスバッグ
- Authors: Umberto Michieli, Jijoong Moon, Daehyun Kim, Mete Ozay,
- Abstract要約: 抽出した特徴量の多次統計に基づいて,OBoI (Object-conditioned Bag of Instances) を構築する。
OBoIは、異なるインスタンスを区別する上で、一貫した優れた精度を達成する。
その結果,18件の個人の場合,77.1%の個人物体認識精度が達成され,技術状況に対する相対的な利得が約12%を占めた。
- 参考スコア(独自算出の注目度): 20.459222377819682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, users demand for increased personalization of vision systems to localize and identify personal instances of objects (e.g., my dog rather than dog) from a few-shot dataset only. Despite outstanding results of deep networks on classical label-abundant benchmarks (e.g., those of the latest YOLOv8 model for standard object detection), they struggle to maintain within-class variability to represent different instances rather than object categories only. We construct an Object-conditioned Bag of Instances (OBoI) based on multi-order statistics of extracted features, where generic object detection models are extended to search and identify personal instances from the OBoI's metric space, without need for backpropagation. By relying on multi-order statistics, OBoI achieves consistent superior accuracy in distinguishing different instances. In the results, we achieve 77.1% personal object recognition accuracy in case of 18 personal instances, showing about 12% relative gain over the state of the art.
- Abstract(参考訳): 今日では、ユーザーは視覚システムのパーソナライズを拡大して、数ショットのデータセットのみからオブジェクトの個人インスタンス(例えば犬ではなく犬)をローカライズし、識別することを要求している。
古典的なラベル付きベンチマーク(例えば、標準オブジェクト検出のための最新のYOLOv8モデル)のディープネットワークによる顕著な結果にもかかわらず、彼らはオブジェクトカテゴリのみではなく、異なるインスタンスを表現するためにクラス内での可変性を維持するのに苦労している。
抽出された特徴の多次統計に基づいて、OBoIのメトリック空間から個人インスタンスを検索・識別するために汎用オブジェクト検出モデルを拡張し、バックプロパゲーションを必要とせずに、OBoI(Object-conditioned Bag of Instances)を構築する。
マルチオーダー統計に頼れば、OBoIは異なるインスタンスを区別する上で、一貫した優れた精度を達成できる。
その結果,18件の個人の場合,77.1%の個人物体認識精度が達成され,最先端技術に比べて約12%の相対的な増加率を示した。
関連論文リスト
- A High-Resolution Dataset for Instance Detection with Multi-View
Instance Capture [15.298790238028356]
インスタンス検出(InsDet)は、ロボット工学とコンピュータビジョンにおける長期的な問題である。
現在のInsDetは、今日の標準ではスケールが小さすぎる。
InsDetの新しいデータセットとプロトコルを導入します。
論文 参考訳(メタデータ) (2023-10-30T03:58:41Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Conditional Cross Attention Network for Multi-Space Embedding without
Entanglement in Only a SINGLE Network [1.8899300124593648]
本研究では,複数の特定の属性に対して,単一のバックボーンのみを交叉する多空間埋め込みを誘導する条件付きクロスアテンションネットワークを提案する。
提案手法は,FashionAI,DARN,DeepFashion,Zappos50Kベンチマークデータセット上で一貫した最先端性能を実現した。
論文 参考訳(メタデータ) (2023-07-25T04:48:03Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - On Model Calibration for Long-Tailed Object Detection and Instance
Segmentation [56.82077636126353]
NorCal, Normalized for long-tailed object detection and instance segmentation。
バックグラウンドクラスを個別に扱い、各提案のクラスに対してスコアを正規化することは、優れたパフォーマンスを達成するための鍵であることを示す。
論文 参考訳(メタデータ) (2021-07-05T17:57:20Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Adaptive Object Detection with Dual Multi-Label Prediction [78.69064917947624]
本稿では,適応オブジェクト検出のための新しいエンド・ツー・エンドの非教師付き深部ドメイン適応モデルを提案する。
モデルはマルチラベル予測を利用して、各画像内の対象カテゴリ情報を明らかにする。
本稿では,オブジェクト検出を支援するための予測整合正則化機構を提案する。
論文 参考訳(メタデータ) (2020-03-29T04:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。