論文の概要: Predictive Visual Tracking: A New Benchmark and Baseline Approach
- arxiv url: http://arxiv.org/abs/2103.04508v1
- Date: Mon, 8 Mar 2021 01:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 22:57:02.291264
- Title: Predictive Visual Tracking: A New Benchmark and Baseline Approach
- Title(参考訳): 予測的ビジュアルトラッキング:新しいベンチマークとベースラインアプローチ
- Authors: Bowen Li, Yiming Li, Junjie Ye, Changhong Fu, and Hang Zhao
- Abstract要約: 実世界のシナリオでは、画像ストリームのオンボード処理時間が必然的に追跡結果と実世界の状態との間に不一致をもたらす。
既存のビジュアルトラッキングベンチマークは、一般的にトラッカーをオフラインで実行し、評価においてそのような遅延を無視する。
本研究は,より現実的な遅延認識トラッキング問題に対処することを目的としている。
- 参考スコア(独自算出の注目度): 27.87099869398515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a crucial robotic perception capability, visual tracking has been
intensively studied recently. In the real-world scenarios, the onboard
processing time of the image streams inevitably leads to a discrepancy between
the tracking results and the real-world states. However, existing visual
tracking benchmarks commonly run the trackers offline and ignore such latency
in the evaluation. In this work, we aim to deal with a more realistic problem
of latency-aware tracking. The state-of-the-art trackers are evaluated in the
aerial scenarios with new metrics jointly assessing the tracking accuracy and
efficiency. Moreover, a new predictive visual tracking baseline is developed to
compensate for the latency stemming from the onboard computation. Our
latency-aware benchmark can provide a more realistic evaluation of the trackers
for the robotic applications. Besides, exhaustive experiments have proven the
effectiveness of the proposed predictive visual tracking baseline approach.
- Abstract(参考訳): ロボットの知覚能力として、視覚追跡は近年集中的に研究されている。
実世界のシナリオでは、画像ストリームのオンボード処理時間が必然的に追跡結果と実世界の状態との間に不一致をもたらす。
しかし、既存のビジュアルトラッキングベンチマークは、一般的にトラッカーをオフラインで実行し、評価においてそのような遅延を無視する。
本研究は,より現実的な遅延認識トラッキング問題に対処することを目的としている。
最新のトラッカーは、航空シナリオで評価され、追跡精度と効率を共同で評価します。
さらに、オンボード計算によるレイテンシを補償するために、新たな予測ビジュアルトラッキングベースラインを開発した。
当社の遅延認識ベンチマークは、ロボットアプリケーション用のトラッカーのより現実的な評価を提供することができます。
さらに,提案手法の有効性を徹底的に検証する実験を行った。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [56.95046107046027]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - Towards Real-World Visual Tracking with Temporal Contexts [64.7981374129495]
時間的文脈を効率的に活用できる2段階フレームワーク(TCTrack)を提案する。
これに基づいて、現実世界の視覚的トラッキング、すなわちTCTrack++のためのより強力なバージョンを提案する。
特徴抽出のために,空間的特徴を高めるために注意に基づく時間適応的畳み込みを提案する。
類似性マップの改良のために,時間的知識を効率的に符号化する適応型時間的変換器を導入する。
論文 参考訳(メタデータ) (2023-08-20T17:59:40Z) - PVT++: A Simple End-to-End Latency-Aware Visual Tracking Framework [33.7932898514321]
我々は、エンドツーエンドの遅延認識トラッキング、すなわち、エンドツーエンドの予測ビジュアルトラッキング(PVT++)のためのフレームワークを提案する。
Kalman Filtersをトラッカーに付加する既存のソリューションとは異なり、PVT++は共同で最適化できる。
PVT++は、様々なトラッカーで大幅な性能向上を実現し、以前のソリューションよりも高い精度を示す。
論文 参考訳(メタデータ) (2022-11-21T16:43:33Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Event-Based high-speed low-latency fiducial marker tracking [15.052022635853799]
本稿では,リアルタイム,低レイテンシ,自由度6自由度ポーズ推定のためのエンドツーエンドパイプラインを提案する。
イベントベースのセンサを高速に利用して空間変換を直接改善する。
このアプローチでは,CPUリソースのみに依存しながら,最大156kHzのレートでポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-10-12T08:34:31Z) - Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control [55.41644538483948]
実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
論文 参考訳(メタデータ) (2021-08-26T11:45:26Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。