論文の概要: UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking
- arxiv url: http://arxiv.org/abs/2001.05425v1
- Date: Wed, 15 Jan 2020 16:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:42:14.409652
- Title: UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking
- Title(参考訳): UnOVOST:教師なしのオフラインビデオオブジェクトのセグメンテーションと追跡
- Authors: Jonathon Luiten, Idil Esen Zulfikar, Bastian Leibe
- Abstract要約: 我々は,UnOVOST(Unsupervised Video Unsupervised Object Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。
これを実現するために、新しいトラックレットベースのフォレストパスカットデータアソシエーションアルゴリズムを導入する。
DAVIS 2017でのアプローチを評価する際、教師なしのデータセットは、valで67.9%、test-devで58%、test-challengeベンチマークで56.4%の最先端のパフォーマンスを取得し、DAVIS 2019 Video Object Challengeで1位を獲得した。
- 参考スコア(独自算出の注目度): 23.326644949067145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address Unsupervised Video Object Segmentation (UVOS), the task of
automatically generating accurate pixel masks for salient objects in a video
sequence and of tracking these objects consistently through time, without any
input about which objects should be tracked. Towards solving this task, we
present UnOVOST (Unsupervised Offline Video Object Segmentation and Tracking)
as a simple and generic algorithm which is able to track and segment a large
variety of objects. This algorithm builds up tracks in a number stages, first
grouping segments into short tracklets that are spatio-temporally consistent,
before merging these tracklets into long-term consistent object tracks based on
their visual similarity. In order to achieve this we introduce a novel
tracklet-based Forest Path Cutting data association algorithm which builds up a
decision forest of track hypotheses before cutting this forest into paths that
form long-term consistent object tracks. When evaluating our approach on the
DAVIS 2017 Unsupervised dataset we obtain state-of-the-art performance with a
mean J &F score of 67.9% on the val, 58% on the test-dev and 56.4% on the
test-challenge benchmarks, obtaining first place in the DAVIS 2019 Unsupervised
Video Object Segmentation Challenge. UnOVOST even performs competitively with
many semi-supervised video object segmentation algorithms even though it is not
given any input as to which objects should be tracked and segmented.
- Abstract(参考訳): UVOS(Unsupervised Video Object Segmentation)は、ビデオシーケンス内の正常なオブジェクトに対する正確なピクセルマスクを自動的に生成し、どのオブジェクトをトラッキングすべきかを入力することなく、時間を通して連続的に追跡するタスクである。
この課題を解決するために,UnOVOST(Unsupervised Offline Video Object Segmentation and Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。
このアルゴリズムは、まずセグメントを時空間的に一貫した短いトラックレットにグループ化した後、視覚的類似性に基づいてこれらのトラックレットを長期一貫したオブジェクトトラックにマージする。
これを実現するために,我々は,この森林を長期一貫したオブジェクトトラックを形成する経路に分割する前に,トラック仮説の決定フォレストを構築する新しいフォレストパス切断データアソシエーションアルゴリズムを提案する。
DAVIS 2017 Unsupervised dataでは、平均的なJ&Fスコアが67.9%、テストデーブが58%、テストチャレンジベンチマークが56.4%で最先端のパフォーマンスが得られ、DAVIS 2019 Unsupervised Video Object Segmentation Challengeで1位になった。
UnOVOSTは多くの半教師付きビデオオブジェクトセグメンテーションアルゴリズムと競合するが、どのオブジェクトをトラックしてセグメンテーションすべきかという入力は与えられていない。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Beyond SOT: Tracking Multiple Generic Objects at Once [141.36900362724975]
ジェネリックオブジェクト追跡(ジェネリックオブジェクト追跡、英: Generic Object Tracking、GOT)は、ビデオの最初のフレームでボックスをバウンディングすることによって指定されたターゲットオブジェクトを追跡する問題である。
大規模GOTベンチマークであるLaGOTを導入し,複数のアノテート対象オブジェクトをシーケンス毎に含む。
提案手法は単一オブジェクトのGOTデータセットに対して高い競合性を実現し,TrackingNet上での新たな技術状態が84.4%の成功率で設定されている。
論文 参考訳(メタデータ) (2022-12-22T17:59:19Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Tag-Based Attention Guided Bottom-Up Approach for Video Instance
Segmentation [83.13610762450703]
ビデオインスタンスは、ビデオシーケンス全体にわたるオブジェクトインスタンスのセグメンテーションと追跡を扱う、基本的なコンピュータビジョンタスクである。
そこで本研究では,従来の領域プロモーター方式ではなく,画素レベルの粒度でインスタンスマスク予測を実現するための,単純なエンドツーエンドのボトムアップ方式を提案する。
提案手法は,YouTube-VIS と DAVIS-19 のデータセット上での競合結果を提供する。
論文 参考訳(メタデータ) (2022-04-22T15:32:46Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking [13.375369415113534]
本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
論文 参考訳(メタデータ) (2021-12-22T12:48:51Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - An Exploration of Target-Conditioned Segmentation Methods for Visual
Object Trackers [24.210580784051277]
境界ボックストラッカーをセグメント化トラッカーに変換する方法を示す。
この手法は,最近提案されたセグメンテーショントラッカーと競合することを示す。
論文 参考訳(メタデータ) (2020-08-03T16:21:18Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。