論文の概要: Robust Visual Tracking by Motion Analyzing
- arxiv url: http://arxiv.org/abs/2309.03247v1
- Date: Wed, 6 Sep 2023 12:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 15:17:39.048974
- Title: Robust Visual Tracking by Motion Analyzing
- Title(参考訳): 運動解析によるロバスト視覚追跡
- Authors: Mohammed Leo and Kurban Ubul and ShengJie Cheng and Michael Ma
- Abstract要約: ビデオオブジェクト追跡(VOT)は、ターゲット周辺のすべてのピクセルを分類することに焦点を当て、正確な形状のラベル付けを可能にする。
従来のセグメンテーションモジュールは通常、隣接するフレーム間の情報を無視して、ピクセルフレームをフレームごとに分類する。
固有テンソル構造を用いて動きパターンを解析することにより,この制限に対処するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.9339914898177187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Video Object Segmentation (VOS) has emerged as a
complementary method to Video Object Tracking (VOT). VOS focuses on classifying
all the pixels around the target, allowing for precise shape labeling, while
VOT primarily focuses on the approximate region where the target might be.
However, traditional segmentation modules usually classify pixels frame by
frame, disregarding information between adjacent frames.
In this paper, we propose a new algorithm that addresses this limitation by
analyzing the motion pattern using the inherent tensor structure. The tensor
structure, obtained through Tucker2 tensor decomposition, proves to be
effective in describing the target's motion. By incorporating this information,
we achieved competitive results on Four benchmarks LaSOT\cite{fan2019lasot},
AVisT\cite{noman2022avist}, OTB100\cite{7001050}, and
GOT-10k\cite{huang2019got} LaSOT\cite{fan2019lasot} with SOTA. Furthermore, the
proposed tracker is capable of real-time operation, adding value to its
practical application.
- Abstract(参考訳): 近年,ビデオオブジェクト・セグメンテーション (VOS) がビデオオブジェクト追跡 (VOT) の補完手法として出現している。
VOSはターゲット周辺のすべてのピクセルの分類に重点を置いており、正確な形状のラベル付けを可能にしている。
しかし、従来のセグメンテーションモジュールは通常、隣接するフレーム間の情報を無視して、フレームごとにピクセルを分類する。
本稿では,固有テンソル構造を用いて運動パターンを分析することで,この制限に対処する新しいアルゴリズムを提案する。
タッカー2テンソル分解によって得られるテンソル構造は、ターゲットの動きを記述するのに有効であることが証明される。
この情報を取り入れることで、SOTAによるLaSOT\cite{fan2019lasot}, AVisT\cite{noman2022avist}, OTB100\cite{7001050}, GOT-10k\cite{huang2019got} LaSOT\cite{fan2019lasot}の4つのベンチマークの競争結果を得た。
さらに,提案するトラッカーはリアルタイム動作が可能であり,実用的応用に価値が付加される。
関連論文リスト
- Zero-Shot Open-Vocabulary Tracking with Large Pre-Trained Models [28.304047711166056]
大規模事前訓練モデルでは、野生の2次元静的画像中の物体の検出とセグメンテーションの進歩が期待できる。
このような大規模なトレーニング済みの静的イメージモデルを,オープン語彙のビデオトラッキングに再利用することは可能だろうか?
本稿では,オープンボキャブラリ検出器,セグメンタ,高密度光流推定器を,任意のカテゴリの物体を2Dビデオで追跡・セグメント化するモデルに再構成する。
論文 参考訳(メタデータ) (2023-10-10T20:25:30Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network [0.0]
最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
論文 参考訳(メタデータ) (2021-03-28T11:02:14Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - RPT: Learning Point Set Representation for Siamese Visual Tracking [15.04182251944942]
本稿では,より詳細な表現を代表点の集合として,対象状態を正確に推定する効率的な視覚追跡フレームワークを提案する。
提案手法は20FPS以上の動作中に新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-08-08T07:42:58Z) - Novel Perception Algorithmic Framework For Object Identification and
Tracking In Autonomous Navigation [1.370633147306388]
本稿では,自律走行車における物体の認識・追跡機能を備えた新しい認識フレームワークを提案する。
このフレームワークは、Ego-vehicleのポーズ推定とKD-Treeベースのゴールセグメンテーションアルゴリズムを利用する。
方法論の有効性は、KITTIデータセット上で検証される。
論文 参考訳(メタデータ) (2020-06-08T18:21:40Z) - Zero-Shot Video Object Segmentation via Attentive Graph Neural Networks [150.5425122989146]
本研究は、ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい注意グラフニューラルネットワーク(AGNN)を提案する。
AGNNは、フレームをノードとして効率的に表現し、任意のフレームペア間の関係をエッジとして表現するために、完全に連結されたグラフを構築している。
3つのビデオセグメンテーションデータセットの実験結果は、AGNNがそれぞれのケースに新しい最先端を設定していることを示している。
論文 参考訳(メタデータ) (2020-01-19T10:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。