論文の概要: Object-Centric Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2309.00233v2
- Date: Tue, 5 Sep 2023 07:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 11:47:46.322072
- Title: Object-Centric Multiple Object Tracking
- Title(参考訳): オブジェクト中心多重物体追跡
- Authors: Zixu Zhao, Jiaze Wang, Max Horn, Yizhuo Ding, Tong He, Zechen Bai,
Dominik Zietlow, Carl-Johann Simon-Gabriel, Bing Shuai, Zhuowen Tu, Thomas
Brox, Bernt Schiele, Yanwei Fu, Francesco Locatello, Zheng Zhang, Tianjun
Xiao
- Abstract要約: 本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
- 参考スコア(独自算出の注目度): 124.30650395969126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised object-centric learning methods allow the partitioning of scenes
into entities without additional localization information and are excellent
candidates for reducing the annotation burden of multiple-object tracking (MOT)
pipelines. Unfortunately, they lack two key properties: objects are often split
into parts and are not consistently tracked over time. In fact,
state-of-the-art models achieve pixel-level accuracy and temporal consistency
by relying on supervised object detection with additional ID labels for the
association through time. This paper proposes a video object-centric model for
MOT. It consists of an index-merge module that adapts the object-centric slots
into detection outputs and an object memory module that builds complete object
prototypes to handle occlusions. Benefited from object-centric learning, we
only require sparse detection labels (0%-6.25%) for object localization and
feature binding. Relying on our self-supervised
Expectation-Maximization-inspired loss for object association, our approach
requires no ID labels. Our experiments significantly narrow the gap between the
existing object-centric model and the fully supervised state-of-the-art and
outperform several unsupervised trackers.
- Abstract(参考訳): 教師なしオブジェクト中心の学習方法は、追加のローカライズ情報なしでシーンをエンティティに分割することを可能にし、マルチオブジェクトトラッキング(mot)パイプラインのアノテーション負担を軽減する優れた候補である。
オブジェクトは多くの場合、部分に分割され、時間とともに常に追跡されない。
実際、最先端モデルは、時間を通して関連付けのための追加のIDラベルを持つ教師付きオブジェクト検出に依存することにより、ピクセルレベルの精度と時間的一貫性を達成する。
本稿ではMOTのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適合させるインデックスマージモジュールと、オクルージョンを処理するために完全なオブジェクトプロトタイプを構築するオブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングにはスパース検出ラベル(0%-6.25%)しか必要としない。
自己監督型期待最大化に基づくオブジェクトアソシエーションの損失を考慮し,IDラベルは不要である。
私たちの実験では、既存のオブジェクト中心モデルと完全に監視された最先端モデルとのギャップを大幅に狭め、教師なしのトラッカーを上回っています。
関連論文リスト
- Collecting Consistently High Quality Object Tracks with Minimal Human Involvement by Using Self-Supervised Learning to Detect Tracker Errors [16.84474849409625]
高品質なオブジェクトトラックを一貫して作成するためのフレームワークを提案する。
鍵となるアイデアは、各データセットのモジュールを調整して、オブジェクトトラッカの障害をインテリジェントに判断することだ。
提案手法は,未収録ビデオの自己教師型学習を利用して,対象対象の表現をカスタマイズした表現を学習する。
論文 参考訳(メタデータ) (2024-05-06T17:06:32Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Scribble-based Boundary-aware Network for Weakly Supervised Salient
Object Detection in Remote Sensing Images [10.628932392896374]
スパース・スクリブル・アノテーションからリモートセンシング画像の正当性を予測するために,弱教師付きサルエント・オブジェクト検出フレームワークを提案する。
具体的には,高信頼度オブジェクト境界 (擬似) ラベルによって明示的に制御されるオブジェクト境界意味論を探索する境界対応モジュール (BAM) を設計する。
次に,境界セマンティクスを高次特徴と統合し,スクリブルラベルの監督下での健全な物体検出を誘導する。
論文 参考訳(メタデータ) (2022-02-07T20:32:21Z) - Online Multi-Object Tracking with Unsupervised Re-Identification
Learning and Occlusion Estimation [80.38553821508162]
異なるオブジェクト間のオクルージョンは、MOT(Multi-Object Tracking)の典型的な課題である
本稿では,これらの問題に対処する2つの新しいモジュールを設計し,オンラインマルチオブジェクト追跡に焦点を当てる。
提案した教師なし再識別学習モジュールは、(疑似)識別情報を一切必要とせず、スケーラビリティの問題に悩まされることもない。
本研究は、最先端MOT法に適用した場合、教師なし再識別学習は教師なし再識別学習に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-01-04T18:59:58Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - IA-MOT: Instance-Aware Multi-Object Tracking with Motion Consistency [40.354708148590696]
IA-MOT(Instance-Aware MOT)は、静止カメラまたは移動カメラで複数の物体を追跡できる。
提案手法は,CVPR 2020ワークショップにおけるBMTTチャレンジのトラック3で優勝した。
論文 参考訳(メタデータ) (2020-06-24T03:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。