論文の概要: DriveTrack: A Benchmark for Long-Range Point Tracking in Real-World
Videos
- arxiv url: http://arxiv.org/abs/2312.09523v1
- Date: Fri, 15 Dec 2023 04:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:13:15.766645
- Title: DriveTrack: A Benchmark for Long-Range Point Tracking in Real-World
Videos
- Title(参考訳): DriveTrack: リアルタイムビデオにおけるロングランジポイントトラッキングのベンチマーク
- Authors: Arjun Balasingam, Joseph Chandler, Chenning Li, Zhoutong Zhang, Hari
Balakrishnan
- Abstract要約: DriveTrackは、現実世界のビデオのキーポイントトラッキングのための新しいベンチマークとデータ生成フレームワークである。
24時間のビデオにまたがる10億のトラックからなるデータセットをリリースします。
DriveTrackの微調整キーポイントトラッカーは、現実世界のシーンの精度を最大7%向上させる。
- 参考スコア(独自算出の注目度): 9.304179915575114
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents DriveTrack, a new benchmark and data generation framework
for long-range keypoint tracking in real-world videos. DriveTrack is motivated
by the observation that the accuracy of state-of-the-art trackers depends
strongly on visual attributes around the selected keypoints, such as texture
and lighting. The problem is that these artifacts are especially pronounced in
real-world videos, but these trackers are unable to train on such scenes due to
a dearth of annotations. DriveTrack bridges this gap by building a framework to
automatically annotate point tracks on autonomous driving datasets. We release
a dataset consisting of 1 billion point tracks across 24 hours of video, which
is seven orders of magnitude greater than prior real-world benchmarks and on
par with the scale of synthetic benchmarks. DriveTrack unlocks new use cases
for point tracking in real-world videos. First, we show that fine-tuning
keypoint trackers on DriveTrack improves accuracy on real-world scenes by up to
7%. Second, we analyze the sensitivity of trackers to visual artifacts in real
scenes and motivate the idea of running assistive keypoint selectors alongside
trackers.
- Abstract(参考訳): 本稿では,リアルタイムビデオにおける長距離キーポイント追跡のための新しいベンチマークおよびデータ生成フレームワークであるdrivetrackを提案する。
DriveTrackは、最先端のトラッカーの精度が、テクスチャや照明などの選択されたキーポイント周辺の視覚的特性に強く依存しているという観察に動機づけられている。
問題は、これらのアーティファクトが現実世界のビデオでは特に顕著であることですが、アノテーションの不足のため、これらのトラッカーはそのようなシーンでトレーニングすることはできません。
DriveTrackはこのギャップを埋めるために、自律的な運転データセット上のポイントトラックを自動的にアノテートするフレームワークを構築する。
ビデオの24時間にわたって10億点のトラックからなるデータセットをリリースし、これは以前の実世界のベンチマークよりも7桁大きく、合成ベンチマークの規模に匹敵する。
DriveTrackは、現実世界のビデオのポイントトラッキングのための新しいユースケースをアンロックする。
まず、DriveTrackの微調整キーポイントトラッカーが現実世界のシーンの精度を最大7%向上することを示す。
第2に,実シーンにおける視覚的アーティファクトに対するトラッカーの感度を分析し,トラッカーとともに補助キーポイントセレクタを走らせるというアイデアを動機づける。
関連論文リスト
- PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Tracking Anything in High Quality [63.63653185865726]
HQTrackは高品質なビデオ追跡のためのフレームワークだ。
ビデオマルチオブジェクトセグメンタ(VMOS)とマスクリファインダ(MR)で構成されている。
論文 参考訳(メタデータ) (2023-07-26T06:19:46Z) - CoTracker: It is Better to Track Together [70.63040730154984]
CoTrackerは、長いビデオシーケンスで多数の2Dポイントを追跡するトランスフォーマーベースのモデルである。
関節トラッキングはトラッキング精度とロバスト性を大幅に改善し、CoTrackerはカメラビューの外側に隠された点や点を追跡することができる。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - TAP-Vid: A Benchmark for Tracking Any Point in a Video [84.94877216665793]
我々は、より長いビデオクリップで表面上の任意の物理点を追跡するという問題を定式化し、任意の点(TAP)を追尾する。
そこで本研究では,実世界の映像に正確な点線アノテーションを付加したTAP-Vidと,完全な接地木線トラックを付加した合成ビデオとを併用したベンチマーク,TAP-Vidを提案する。
本稿では, 簡易な終端点追跡モデルTAP-Netを提案する。
論文 参考訳(メタデータ) (2022-11-07T17:57:02Z) - LightTrack: Finding Lightweight Neural Networks for Object Tracking via
One-Shot Architecture Search [104.84999119090887]
ニューラルアーキテクチャサーチ(NAS)を用いて、より軽量で効率的なオブジェクトトラッカーを設計するLightTrackを提案する。
総合的な実験は、LightTrackが効果的であることを示している。
SiamRPN++やOceanといった手作りのSOTAトラッカーよりも優れたパフォーマンスを実現するトラッカーを見つけることができる。
論文 参考訳(メタデータ) (2021-04-29T17:55:24Z) - Benchmarking Deep Trackers on Aerial Videos [5.414308305392762]
本論文では,4つの空中データセットの深層学習手法に基づく10のトラッカーを比較した。
我々は,検出による追跡,識別相関フィルタ,シャムネットワーク,強化学習など,さまざまなアプローチを用いた上位パフォーマンストラッカを選択する。
本研究では, 地上映像と比べ, 航空データセットではトラッカーの性能が著しく悪くなることが示唆された。
論文 参考訳(メタデータ) (2021-03-24T01:45:19Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。