論文の概要: Cross-View Referring Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2412.17807v1
- Date: Mon, 23 Dec 2024 18:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:12.523251
- Title: Cross-View Referring Multi-Object Tracking
- Title(参考訳): マルチオブジェクト追跡のためのクロスビュー参照
- Authors: Sijia Chen, En Yu, Wenbing Tao,
- Abstract要約: Referring Multi-Object Tracking (RMOT)は、現在の追跡分野において重要なトピックである。
CRMOT(Cross-view Referring Multi-Object Tracking)と呼ばれる新しいタスクを提案する。
複数のビューからオブジェクトの外観を得るためのクロスビューを導入し、RMOTタスクにおけるオブジェクトの見えない外観の問題を回避する。
- 参考スコア(独自算出の注目度): 25.963714973838417
- License:
- Abstract: Referring Multi-Object Tracking (RMOT) is an important topic in the current tracking field. Its task form is to guide the tracker to track objects that match the language description. Current research mainly focuses on referring multi-object tracking under single-view, which refers to a view sequence or multiple unrelated view sequences. However, in the single-view, some appearances of objects are easily invisible, resulting in incorrect matching of objects with the language description. In this work, we propose a new task, called Cross-view Referring Multi-Object Tracking (CRMOT). It introduces the cross-view to obtain the appearances of objects from multiple views, avoiding the problem of the invisible appearances of objects in RMOT task. CRMOT is a more challenging task of accurately tracking the objects that match the language description and maintaining the identity consistency of objects in each cross-view. To advance CRMOT task, we construct a cross-view referring multi-object tracking benchmark based on CAMPUS and DIVOTrack datasets, named CRTrack. Specifically, it provides 13 different scenes and 221 language descriptions. Furthermore, we propose an end-to-end cross-view referring multi-object tracking method, named CRTracker. Extensive experiments on the CRTrack benchmark verify the effectiveness of our method. The dataset and code are available at https://github.com/chen-si-jia/CRMOT.
- Abstract(参考訳): Referring Multi-Object Tracking (RMOT)は、現在の追跡分野において重要なトピックである。
そのタスクフォームは、言語記述にマッチしたオブジェクトを追跡するためにトラッカーを誘導する。
現在の研究は、主に、ビューシーケンスまたは複数の無関係なビューシーケンスを参照する、単一ビュー下でのマルチオブジェクト追跡を参照することに焦点を当てている。
しかし、シングルビューでは、いくつかのオブジェクトの外観は容易に見えず、オブジェクトと言語記述とが正しく一致しない。
本研究では,CRMOT(Cross-view Referring Multi-Object Tracking)と呼ばれる新しいタスクを提案する。
複数のビューからオブジェクトの外観を得るためのクロスビューを導入し、RMOTタスクにおけるオブジェクトの見えない外観の問題を回避する。
CRMOTは、言語記述にマッチするオブジェクトを正確に追跡し、各クロスビューにおけるオブジェクトのアイデンティティ一貫性を維持するための、より困難なタスクです。
CRMOTタスクを前進させるために、CAMPUSとDIVOTrackデータセットに基づくCRTrackと呼ばれるマルチオブジェクト追跡ベンチマークをクロスビューで参照する。
具体的には13の異なるシーンと221の言語記述を提供する。
さらに,CRTracker というマルチオブジェクト追跡手法を提案する。
CRTrackベンチマークの大規模な実験により,本手法の有効性が検証された。
データセットとコードはhttps://github.com/chen-si-jia/CRMOT.comで公開されている。
関連論文リスト
- TrackMe:A Simple and Effective Multiple Object Tracking Annotation Tool [5.102727104196738]
近年の最先端追跡手法は、物体検出、外観特徴抽出、トラックアソシエーションのためのディープラーニングアーキテクチャに基づいて構築されている。
動物で実行するには、異なる種類の大きなデータセットを複数の条件で作成する必要がある。
本研究では,よく知られたツールである LabelMe を改良し,コンピュータ科学に関する深い知識がなくても,少ない労力でアノテートできるように支援する。
論文 参考訳(メタデータ) (2024-10-20T21:57:25Z) - DIVOTrack: A Novel Dataset and Baseline Method for Cross-View
Multi-Object Tracking in DIVerse Open Scenes [74.64897845999677]
歩行者が密集したDIVerse Openのシーンを対象とした,新しいクロスビュー多目的追跡データセットを提案する。
私たちのDIVOTrackには15の異なるシナリオと953のクロスビュートラックがあります。
さらに,クロスモット(CrossMOT)という統合型共同検出・クロスビュートラッキングフレームワークを用いた新しいベースラインクロスビュートラッキング手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T14:10:42Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - DanceTrack: Multi-Object Tracking in Uniform Appearance and Diverse
Motion [56.1428110894411]
マルチヒューマントラッキングのための大規模データセットを提案する。
データセットには、主にグループダンスビデオが含まれているので、私たちはそれを"DanceTrack"と名付けます。
当社のデータセット上でいくつかの最先端トラッカーをベンチマークし、既存のベンチマークと比較した場合、DanceTrackの大幅なパフォーマンス低下を観察します。
論文 参考訳(メタデータ) (2021-11-29T16:49:06Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。