論文の概要: CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking
- arxiv url: http://arxiv.org/abs/2205.04261v1
- Date: Mon, 9 May 2022 13:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 16:23:30.566253
- Title: CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking
- Title(参考訳): CoCoLoT: 長期のビジュアルトラッキングに補完的なトラッカーを組み合わせる
- Authors: Matteo Dunnhofer, Christian Micheloni
- Abstract要約: 本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
- 参考スコア(独自算出の注目度): 17.2557973738397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to combine the complementary capabilities of an ensemble of different
algorithms has been of central interest in visual object tracking. A
significant progress on such a problem has been achieved, but considering
short-term tracking scenarios. Instead, long-term tracking settings have been
substantially ignored by the solutions. In this paper, we explicitly consider
long-term tracking scenarios and provide a framework, named CoCoLoT, that
combines the characteristics of complementary visual trackers to achieve
enhanced long-term tracking performance. CoCoLoT perceives whether the trackers
are following the target object through an online learned deep verification
model, and accordingly activates a decision policy which selects the best
performing tracker as well as it corrects the performance of the failing one.
The proposed methodology is evaluated extensively and the comparison with
several other solutions reveals that it competes favourably with the
state-of-the-art on the most popular long-term visual tracking benchmarks.
- Abstract(参考訳): 異なるアルゴリズムの補完的な機能をどのように組み合わせるかは、視覚的なオブジェクト追跡に中心的な関心を寄せてきた。
このような問題に対する大きな進歩は達成されたが、短期追跡シナリオを考慮している。
代わりに、長期追跡設定はソリューションによって無視されている。
本稿では,長期追跡のシナリオを明確に検討し,補完的な視覚トラッカーの特性を組み合わせて長期追跡性能を向上させるフレームワークCoCoLoTを提案する。
cocolotは、オンライン学習された深層検証モデルを通じて、トラッカーがターゲットオブジェクトを追跡しているかどうかを判断し、最適な実行トラッカを選択する決定ポリシーを発動し、失敗したオブジェクトのパフォーマンスを補正する。
提案手法は広く評価され、他のいくつかのソリューションとの比較により、最も人気のある長期ビジュアルトラッキングベンチマークの最先端技術と競合することが判明した。
関連論文リスト
- RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - MONCE Tracking Metrics: a comprehensive quantitative performance
evaluation methodology for object tracking [0.0]
本稿では、目標追跡モデル性能ベンチマークと、追跡モデル開発を駆動するための診断情報の両方を提供するMONCE(Multi-Object Non-Contiguous Entities)イメージトラッキングメトリクスのスイートを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:32:03Z) - Rank-based verification for long-term face tracking in crowded scenes [0.0]
混み合った状況下での作業を目的とした,長期的な多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
論文 参考訳(メタデータ) (2021-07-28T11:15:04Z) - Dynamic Attention guided Multi-Trajectory Analysis for Single Object
Tracking [62.13213518417047]
動的注意誘導型マルチ軌道追跡戦略を考案し,さらにダイナミクスを導入することを提案する。
特に、複数のターゲットテンプレートを含む動的外観モデルを構築し、それぞれが新しいフレーム内のターゲットを特定するのに独自の注意を払っています。
シーケンス全体にまたがった後、マルチ軌道選択ネットワークを導入し、トラッキング性能を向上させた最適な軌道を見つけます。
論文 参考訳(メタデータ) (2021-03-30T05:36:31Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Multi-modal Visual Tracking: Review and Experimental Comparison [85.20414397784937]
マルチモーダルトラッキングアルゴリズム,特に可視深度(RGB-D)と可視温度(RGB-T)を要約する。
5つのデータセット上でトラッカーの有効性を分析する実験を行った。
論文 参考訳(メタデータ) (2020-12-08T02:39:38Z) - Long-Term Face Tracking for Crowded Video-Surveillance Scenarios [0.0]
混み合った状況下での作業に適した長期多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
論文 参考訳(メタデータ) (2020-10-17T00:11:13Z) - Rethinking Convolutional Features in Correlation Filter Based Tracking [0.0]
我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
論文 参考訳(メタデータ) (2019-12-30T04:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。