論文の概要: Know Your Surroundings: Exploiting Scene Information for Object Tracking
- arxiv url: http://arxiv.org/abs/2003.11014v2
- Date: Fri, 1 May 2020 16:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:16:37.617061
- Title: Know Your Surroundings: Exploiting Scene Information for Object Tracking
- Title(参考訳): 周囲を知る: 物体追跡にシーン情報を利用する
- Authors: Goutam Bhat, Martin Danelljan, Luc Van Gool, Radu Timofte
- Abstract要約: 現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
本研究では,トラッキングにシーン情報を利用する新しいトラッキングアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 181.1750279330811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art trackers only rely on a target appearance model in
order to localize the object in each frame. Such approaches are however prone
to fail in case of e.g. fast appearance changes or presence of distractor
objects, where a target appearance model alone is insufficient for robust
tracking. Having the knowledge about the presence and locations of other
objects in the surrounding scene can be highly beneficial in such cases. This
scene information can be propagated through the sequence and used to, for
instance, explicitly avoid distractor objects and eliminate target candidate
regions.
In this work, we propose a novel tracking architecture which can utilize
scene information for tracking. Our tracker represents such information as
dense localized state vectors, which can encode, for example, if the local
region is target, background, or distractor. These state vectors are propagated
through the sequence and combined with the appearance model output to localize
the target. Our network is learned to effectively utilize the scene information
by directly maximizing tracking performance on video segments. The proposed
approach sets a new state-of-the-art on 3 tracking benchmarks, achieving an AO
score of 63.6% on the recent GOT-10k dataset.
- Abstract(参考訳): 現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
しかし、このようなアプローチは、例えば、高速な外見の変化や、ターゲットの外観モデルだけではロバストな追跡に不十分なイントラクタオブジェクトの存在などで失敗しがちである。
このような場合、周囲の場面における他の物体の存在や位置に関する知識を持つことは、非常に有益である。
このシーン情報はシーケンスを通じて伝達され、例えば、明示的に邪魔者オブジェクトを避け、ターゲット候補領域を排除するために使用される。
本研究では,シーン情報を追跡に活用できる新しいトラッキングアーキテクチャを提案する。
私たちのトラッカーは、例えば、ローカル領域がターゲット、バックグラウンド、またはイントラクタであれば、エンコード可能な、濃密な局所化状態ベクトルなどの情報を表す。
これらの状態ベクトルはシーケンスを通して伝播し、出力される外観モデルと組み合わせてターゲットをローカライズする。
映像セグメントのトラッキング性能を直接最大化し,シーン情報を効果的に活用するネットワークを学習する。
提案手法は3つのトラッキングベンチマークで最新技術を設定し,最近の got-10k データセットで ao スコア 63.6% を達成した。
関連論文リスト
- DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - e-TLD: Event-based Framework for Dynamic Object Tracking [23.026432675020683]
本稿では,一般的な追跡条件下での移動イベントカメラを用いた長期オブジェクト追跡フレームワークを提案する。
このフレームワークは、オンライン学習を伴うオブジェクトの識別表現を使用し、ビューのフィールドに戻るとオブジェクトを検出し、追跡する。
論文 参考訳(メタデータ) (2020-09-02T07:08:56Z) - An Exploration of Target-Conditioned Segmentation Methods for Visual
Object Trackers [24.210580784051277]
境界ボックストラッカーをセグメント化トラッカーに変換する方法を示す。
この手法は,最近提案されたセグメンテーショントラッカーと競合することを示す。
論文 参考訳(メタデータ) (2020-08-03T16:21:18Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - Applying r-spatiogram in object tracking for occlusion handling [16.36552899280708]
映像追跡の目的は、動画シーケンス内の移動対象を正確に特定し、そのシーケンスの特徴空間内の非ターゲットから目標を識別することである。
本稿では,オブジェクトモデリング,オブジェクト検出とローカライゼーション,モデル更新という,参照モデルの3つの主要コンポーネントで構成される多くのトラッカーの基本概念を用いる。
論文 参考訳(メタデータ) (2020-03-18T02:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。