論文の概要: State-Aware Tracker for Real-Time Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2003.00482v1
- Date: Sun, 1 Mar 2020 12:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:15:24.391017
- Title: State-Aware Tracker for Real-Time Video Object Segmentation
- Title(参考訳): リアルタイムビデオオブジェクトセグメンテーションのための状態認識トラッカー
- Authors: Xi Chen, Zuoxin Li, Ye Yuan, Gang Yu, Jianxin Shen, Donglian Qi
- Abstract要約: 本研究では,リアルタイムに精度の高いセグメンテーション結果が得られる「状態認識トラッカー(SAT)」という新しいパイプラインを提案する。
atvii.com/MegDetection/video_analystがリリースされる。
- 参考スコア(独自算出の注目度): 25.185363655482657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we address the task of semi-supervised video object
segmentation(VOS) and explore how to make efficient use of video property to
tackle the challenge of semi-supervision. We propose a novel pipeline called
State-Aware Tracker(SAT), which can produce accurate segmentation results with
real-time speed. For higher efficiency, SAT takes advantage of the inter-frame
consistency and deals with each target object as a tracklet. For more stable
and robust performance over video sequences, SAT gets awareness for each state
and makes self-adaptation via two feedback loops. One loop assists SAT in
generating more stable tracklets. The other loop helps to construct a more
robust and holistic target representation. SAT achieves a promising result of
72.3% J&F mean with 39 FPS on DAVIS2017-Val dataset, which shows a decent
trade-off between efficiency and accuracy. Code will be released at
github.com/MegviiDetection/video_analyst.
- Abstract(参考訳): 本研究では,ビデオオブジェクトの半教師付きセグメンテーション(VOS)の課題に対処し,半スーパービジョンの課題に対処するために,ビデオプロパティの効率的な利用方法を検討する。
本研究では,リアルタイム速度で正確なセグメンテーション結果を生成するstate-aware tracker(sat)と呼ばれる新しいパイプラインを提案する。
高効率のため、SATはフレーム間の一貫性を利用し、各ターゲットオブジェクトをトラックレットとして扱う。
ビデオシーケンスよりも安定的で堅牢なパフォーマンスを実現するため、SATは各状態を認識し、2つのフィードバックループを通じて自己適応を行う。
1つのループはSATを補助し、より安定したトラックレットを生成する。
他のループは、より堅牢で全体論的なターゲット表現を構築するのに役立つ。
SATは、DAVIS2017-Valデータセット上で39 FPSで72.3%のJ&F平均を達成し、効率と正確性の間に十分なトレードオフを示す。
コードはgithub.com/MegviiDetection/video_analystでリリースされる。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - DBQ-SSD: Dynamic Ball Query for Efficient 3D Object Detection [113.5418064456229]
入力特徴に応じて入力点のサブセットを適応的に選択する動的ボールクエリ(DBQ)ネットワークを提案する。
最先端の3D検出器に組み込むことができ、エンドツーエンドで訓練することで、計算コストを大幅に削減することができる。
論文 参考訳(メタデータ) (2022-07-22T07:08:42Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - SFTrack++: A Fast Learnable Spectral Segmentation Approach for
Space-Time Consistent Tracking [6.294759639481189]
本研究では,空間と時間次元にまたがるオブジェクトの一貫性を学習するオブジェクト追跡手法であるSFTrack++を提案する。
我々は,OTB,UAV,NFS,GOT-10k,TrackingNetの5つのトラッキングベンチマーク上で,トップトラッカーを入力としてテストした。
論文 参考訳(メタデータ) (2020-11-27T17:15:20Z) - LaSOT: A High-quality Large-scale Single Object Tracking Benchmark [67.96196486540497]
高品質な大規模オブジェクト追跡ベンチマークであるLaSOTを提案する。
LaSOTには85のオブジェクトクラスがあり、合計で1,550のフレームが387万フレーム以上ある。
それぞれのビデオフレームは、慎重に手動でバウンディングボックスでアノテートされます。これにより、LaSOTは、私たちの知る限り、最も高密度にアノテートされたトラッキングベンチマークになります。
論文 参考訳(メタデータ) (2020-09-08T00:31:56Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。