論文の概要: DMV: Visual Object Tracking via Part-level Dense Memory and Voting-based
Retrieval
- arxiv url: http://arxiv.org/abs/2003.09171v1
- Date: Fri, 20 Mar 2020 10:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:25:25.389763
- Title: DMV: Visual Object Tracking via Part-level Dense Memory and Voting-based
Retrieval
- Title(参考訳): DMV: 部分レベルDense Memoryと投票ベースの検索によるビジュアルオブジェクト追跡
- Authors: Gunhee Nam, Seoung Wug Oh, Joon-Young Lee, Seon Joo Kim
- Abstract要約: DMVと呼ばれる部分レベル高密度メモリと投票ベースの検索による新しいメモリベースのトラッカーを提案する。
また,メモリの信頼できない情報をフィルタリングする新たな投票機構を提案する。
- 参考スコア(独自算出の注目度): 61.366644088881735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel memory-based tracker via part-level dense memory and
voting-based retrieval, called DMV. Since deep learning techniques have been
introduced to the tracking field, Siamese trackers have attracted many
researchers due to the balance between speed and accuracy. However, most of
them are based on a single template matching, which limits the performance as
it restricts the accessible in-formation to the initial target features. In
this paper, we relieve this limitation by maintaining an external memory that
saves the tracking record. Part-level retrieval from the memory also liberates
the information from the template and allows our tracker to better handle the
challenges such as appearance changes and occlusions. By updating the memory
during tracking, the representative power for the target object can be enhanced
without online learning. We also propose a novel voting mechanism for the
memory reading to filter out unreliable information in the memory. We
comprehensively evaluate our tracker on OTB-100,TrackingNet, GOT-10k, LaSOT,
and UAV123, which show that our method yields comparable results to the
state-of-the-art methods.
- Abstract(参考訳): DMVと呼ばれる部分レベル高密度メモリと投票ベースの検索による新しいメモリベースのトラッカーを提案する。
追跡分野にディープラーニング技術が導入されて以来、シアムトラッカーは速度と精度のバランスのために多くの研究者を惹きつけてきた。
しかし、そのほとんどは単一のテンプレートマッチングに基づいているため、アクセス可能なインフォームを初期ターゲットの機能に制限するため、パフォーマンスが制限される。
本稿では,追跡記録を保存する外部メモリを維持することで,この制限を緩和する。
メモリからの部分レベルの検索もテンプレートから情報を解放し、ルックス変化やオクルージョンといった課題をよりうまく処理できるようにします。
トラッキング中にメモリを更新することで、対象オブジェクトの代表的なパワーをオンライン学習なしで強化することができる。
また,メモリの信頼できない情報をフィルタリングする新たな投票機構を提案する。
OTB-100,TrackingNet,GOT-10k,LaSOT,UAV123のトラッカーを網羅的に評価し,本手法が最先端手法に匹敵する結果をもたらすことを示す。
関連論文リスト
- A Distractor-Aware Memory for Visual Object Tracking with SAM2 [11.864619292028278]
メモリベースのトラッカー(英: Memory-based tracker)は、最近追跡されたフレームをメモリバッファに連結し、現在の画像をバッファされたフレームに到達させることでターゲットをローカライズすることにより、ターゲットモデルを形成するビデオオブジェクトセグメンテーション手法である。
SAM2.1++はSAM2.1と関連するSAMメモリ拡張を7つのベンチマークで上回り、6つのベンチマークで新しい最先端を設定できる。
論文 参考訳(メタデータ) (2024-11-26T16:41:09Z) - RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - MeMOTR: Long-Term Memory-Augmented Transformer for Multi-Object Tracking [19.173503245000678]
マルチオブジェクト追跡のための長期メモリ拡張トランスであるMeMOTRを提案する。
MeMOTRは最先端のメソッドを7.9%、HOTAとAssAのメトリクスで13.0%上回っている。
また、MOT17上でのアソシエーション性能の他のTransformerベースの手法よりも優れており、BDD100Kでよく一般化されている。
論文 参考訳(メタデータ) (2023-07-28T17:50:09Z) - MeMOT: Multi-Object Tracking with Memory [97.48960039220823]
私たちのモデルはMeMOTと呼ばれ、トランスフォーマーベースの3つの主要モジュールで構成されています。
MeMOTは広く採用されているMOTデータセット上で非常に競争力のあるパフォーマンスを観測する。
論文 参考訳(メタデータ) (2022-03-31T02:33:20Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - PeTra: A Sparsely Supervised Memory Model for People Tracking [50.98911178059019]
メモリスロット内のエンティティを追跡するように設計されたメモリ拡張ニューラルネットワークであるPeTraを提案する。
我々は、重要なモデリング選択を経験的に比較し、強い性能を維持しながら、メモリモジュールの設計のいくつかの側面を単純化できることを見出した。
PeTraは両方の評価に非常に効果的で、限られたアノテーションで訓練されているにもかかわらず、メモリ内の人々を追跡できる能力を示している。
論文 参考訳(メタデータ) (2020-05-06T17:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。