論文の概要: Is This Tracker On? A Benchmark Protocol for Dynamic Tracking
- arxiv url: http://arxiv.org/abs/2510.19819v1
- Date: Wed, 22 Oct 2025 17:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.249274
- Title: Is This Tracker On? A Benchmark Protocol for Dynamic Tracking
- Title(参考訳): このトラッカーはオンか?動的トラッカーのためのベンチマークプロトコル
- Authors: Ilona Demler, Saumya Chauhan, Georgia Gkioxari,
- Abstract要約: ITTOは、ポイントトラッキングメソッドの機能と制限を評価し、診断するための新しいベンチマークスイートである。
我々はITTOにおける最先端追跡手法の厳密な分析を行い、動きの複雑さの鍵軸に沿って性能を損なう。
- 参考スコア(独自算出の注目度): 6.23176842962524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce ITTO, a challenging new benchmark suite for evaluating and diagnosing the capabilities and limitations of point tracking methods. Our videos are sourced from existing datasets and egocentric real-world recordings, with high-quality human annotations collected through a multi-stage pipeline. ITTO captures the motion complexity, occlusion patterns, and object diversity characteristic of real-world scenes -- factors that are largely absent in current benchmarks. We conduct a rigorous analysis of state-of-the-art tracking methods on ITTO, breaking down performance along key axes of motion complexity. Our findings reveal that existing trackers struggle with these challenges, particularly in re-identifying points after occlusion, highlighting critical failure modes. These results point to the need for new modeling approaches tailored to real-world dynamics. We envision ITTO as a foundation testbed for advancing point tracking and guiding the development of more robust tracking algorithms.
- Abstract(参考訳): 私たちは、ポイントトラッキング手法の機能と限界を評価し診断するための、挑戦的な新しいベンチマークスイートであるITTOを紹介します。
私たちのビデオは、既存のデータセットとエゴセントリックな現実世界の録画から作られており、高品質な人間のアノテーションがマルチステージパイプラインを通じて収集されています。
ITTOは、現在のベンチマークでほとんど欠落している実世界のシーンの動作の複雑さ、閉塞パターン、およびオブジェクトの多様性を捉えます。
我々はITTOにおける最先端追跡手法の厳密な分析を行い、動きの複雑さの鍵軸に沿って性能を損なう。
以上の結果から,既存のトラッカーがこれらの課題に苦慮していることが明らかとなった。
これらの結果は、現実世界のダイナミクスに適した新しいモデリングアプローチの必要性を示唆している。
我々はITTOを、より堅牢なトラッキングアルゴリズムの開発を導くための基礎的なテストベッドとして想定する。
関連論文リスト
- Delving into Dynamic Scene Cue-Consistency for Robust 3D Multi-Object Tracking [16.366398265001422]
3D多目的追跡は、自動運転分野において重要かつ困難な課題である。
本稿では,この原理を実現するために動的シーンCue-Consistency Tracker(DSC-Track)を提案する。
論文 参考訳(メタデータ) (2025-08-15T08:48:13Z) - Head Anchor Enhanced Detection and Association for Crowded Pedestrian Tracking [8.653608112604472]
提案手法は,物体検出器の回帰と分類の両方から検出特徴を取り入れたものである。
動きモデリングの観点で、現代の検出器仮定に適合するように設計された反復カルマンフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2025-08-07T15:47:34Z) - What You Have is What You Track: Adaptive and Robust Multimodal Tracking [72.92244578461869]
本研究では,時間的に不完全なマルチモーダルデータを用いたトラッカー性能に関する総合的研究を行った。
我々のモデルは9つのベンチマークでSOTA性能を達成し、従来の完全性と欠落したモダリティ設定の両方で優れている。
論文 参考訳(メタデータ) (2025-07-08T11:40:21Z) - MCTrack: A Unified 3D Multi-Object Tracking Framework for Autonomous Driving [10.399817864597347]
本稿では,KITTI, nuScenes, データセット間でのSOTA(State-of-the-art)性能を実現する3Dマルチオブジェクトトラッキング手法であるMCTrackを紹介する。
論文 参考訳(メタデータ) (2024-09-23T11:26:01Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。