論文の概要: A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking
- arxiv url: http://arxiv.org/abs/2112.11846v1
- Date: Wed, 22 Dec 2021 12:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:24:56.595722
- Title: A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking
- Title(参考訳): 視覚物体追跡のための識別型単発セグメンテーションネットワーク
- Authors: Alan Luke\v{z}i\v{c}, Ji\v{r}\'i Matas, Matej Kristan
- Abstract要約: 本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
- 参考スコア(独自算出の注目度): 13.375369415113534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Template-based discriminative trackers are currently the dominant tracking
paradigm due to their robustness, but are restricted to bounding box tracking
and a limited range of transformation models, which reduces their localization
accuracy. We propose a discriminative single-shot segmentation tracker -- D3S2,
which narrows the gap between visual object tracking and video object
segmentation. A single-shot network applies two target models with
complementary geometric properties, one invariant to a broad range of
transformations, including non-rigid deformations, the other assuming a rigid
object to simultaneously achieve robust online target segmentation. The overall
tracking reliability is further increased by decoupling the object and feature
scale estimation. Without per-dataset finetuning, and trained only for
segmentation as the primary output, D3S2 outperforms all published trackers on
the recent short-term tracking benchmark VOT2020 and performs very close to the
state-of-the-art trackers on the GOT-10k, TrackingNet, OTB100 and LaSoT. D3S2
outperforms the leading segmentation tracker SiamMask on video object
segmentation benchmarks and performs on par with top video object segmentation
algorithms.
- Abstract(参考訳): テンプレートベースの識別トラッカーは、現在、その堅牢性のために主要なトラッキングパラダイムであるが、境界ボックス追跡と限定的な変換モデルに限定されており、ローカライゼーションの精度が低下している。
視覚オブジェクト追跡とビデオオブジェクトのセグメンテーションのギャップを狭める識別可能なシングルショットセグメンテーショントラッカーD3S2を提案する。
シングルショットネットワークは、非剛性変形を含む広い範囲の変換に不変な2つの対象モデルを適用し、もう1つは剛性オブジェクトを仮定して堅牢なオンラインターゲットセグメンテーションを同時に達成する。
オブジェクトの分離と機能スケール推定により、全体的なトラッキング信頼性がさらに向上する。
データセットごとの微調整がなく、セグメンテーションのみを一次出力としてトレーニングしたD3S2は、最近の短期追跡ベンチマークであるVOT2020で全てのトラッカーを上回り、GOT-10k、TrackingNet、OCB100、LaSoTの最先端トラッカーと非常に近いパフォーマンスを示している。
D3S2は、主要なセグメンテーショントラッカーであるSiamMaskをビデオオブジェクトセグメンテーションベンチマークで上回り、トップビデオオブジェクトセグメンテーションアルゴリズムと同等に実行する。
関連論文リスト
- 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - BiTrack: Bidirectional Offline 3D Multi-Object Tracking Using Camera-LiDAR Data [11.17376076195671]
BiTrackは2D-3D検出融合、初期軌道生成、双方向軌道再最適化のモジュールを含む3D OMOTフレームワークである。
KITTIデータセットを用いた実験結果から,BiTrackは3次元OMOTタスクの最先端性能を精度と効率で達成できることが示された。
論文 参考訳(メタデータ) (2024-06-26T15:09:54Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - InterTrack: Interaction Transformer for 3D Multi-Object Tracking [9.283656931246645]
3Dマルチオブジェクトトラッキング(MOT)は、自動運転車にとって重要な問題である。
提案手法であるInterTrackは,データアソシエーションのための識別対象表現を生成する。
我々はnuScenes 3D MOTベンチマークのアプローチを検証する。
論文 参考訳(メタデータ) (2022-08-17T03:24:36Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。