論文の概要: SFTrack++: A Fast Learnable Spectral Segmentation Approach for
Space-Time Consistent Tracking
- arxiv url: http://arxiv.org/abs/2011.13843v3
- Date: Thu, 4 Nov 2021 14:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:21:03.926308
- Title: SFTrack++: A Fast Learnable Spectral Segmentation Approach for
Space-Time Consistent Tracking
- Title(参考訳): SFTrack++: 時空間一貫性トラッキングのための高速学習可能なスペクトル分割手法
- Authors: Elena Burceanu
- Abstract要約: 本研究では,空間と時間次元にまたがるオブジェクトの一貫性を学習するオブジェクト追跡手法であるSFTrack++を提案する。
我々は,OTB,UAV,NFS,GOT-10k,TrackingNetの5つのトラッキングベンチマーク上で,トップトラッカーを入力としてテストした。
- 参考スコア(独自算出の注目度): 6.294759639481189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an object tracking method, SFTrack++, that smoothly learns to
preserve the tracked object consistency over space and time dimensions by
taking a spectral clustering approach over the graph of pixels from the video,
using a fast 3D filtering formulation for finding the principal eigenvector of
this graph's adjacency matrix. To better capture complex aspects of the tracked
object, we enrich our formulation to multi-channel inputs, which permit
different points of view for the same input. The channel inputs are in our
experiments, the output of multiple tracking methods. After combining them,
instead of relying only on hidden layers representations to predict a good
tracking bounding box, we explicitly learn an intermediate, more refined one,
namely the segmentation map of the tracked object. This prevents the rough
common bounding box approach to introduce noise and distractors in the learning
process. We test our method, SFTrack++, on five tracking benchmarks: OTB, UAV,
NFS, GOT-10k, and TrackingNet, using five top trackers as input. Our
experimental results validate the pre-registered hypothesis. We obtain
consistent and robust results, competitive on the three traditional benchmarks
(OTB, UAV, NFS) and significantly on top of others (by over $1.1\%$ on
accuracy) on GOT-10k and TrackingNet, which are newer, larger, and more varied
datasets.
- Abstract(参考訳): 本研究では,映像からピクセルのグラフ上のスペクトルクラスタリングアプローチを取り入れ,空間的および時間的次元における追跡対象の一貫性を円滑に保ちながら,このグラフの隣接行列の主固有ベクトルを求めるための高速3次元フィルタリング定式化手法であるsftrack++を提案する。
追跡対象の複雑な側面をよりよく捉えるために、我々は、マルチチャネル入力への定式化を強化し、同じ入力に対する異なる視点を許容する。
チャネル入力は、我々の実験で、複数の追跡手法の出力である。
それらを組み合わせると、良いトラッキングバウンディングボックスを予測するために隠された層表現のみに頼る代わりに、中間的で洗練されたもの、すなわち追跡対象のセグメンテーションマップを明示的に学習する。
これにより、学習プロセスにノイズやイントラクタを導入するための、粗い共通バウンディングボックスアプローチが防止される。
我々は,OTB,UAV,NFS,GOT-10k,TrackingNetの5つのトラッキングベンチマーク上で,トップトラッカーを入力としてテストした。
実験により,事前登録仮説が検証された。
従来型の3つのベンチマーク(otb、uav、nfs)と、より新しく、より大きく、より多様なデータセットであるgot-10kとtrackingnet(精度で1.1ドル以上)に比較して、一貫性があり、堅牢な結果が得られる。
関連論文リスト
- Walker: Self-supervised Multiple Object Tracking by Walking on Temporal Appearance Graphs [117.67620297750685]
これは、疎結合なボックスアノテーションとトラッキングラベルのないビデオから学習する、初めてのセルフ教師付きトラッカーである。
Walker氏はMOT17、DanceTrack、BDD100Kで競争力を発揮する最初のセルフトラッカーである。
論文 参考訳(メタデータ) (2024-09-25T18:00:00Z) - SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking [26.405519771454102]
本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
論文 参考訳(メタデータ) (2024-02-26T02:14:54Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。