論文の概要: Self-supervised Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2006.12480v1
- Date: Mon, 22 Jun 2020 17:55:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-18 05:20:08.788719
- Title: Self-supervised Video Object Segmentation
- Title(参考訳): 自己教師付きビデオオブジェクトセグメンテーション
- Authors: Fangrui Zhu, Li Zhang, Yanwei Fu, Guodong Guo, Weidi Xie
- Abstract要約: 本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
- 参考スコア(独自算出の注目度): 76.83567326586162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of this paper is self-supervised representation learning, with
the goal of solving semi-supervised video object segmentation (a.k.a. dense
tracking). We make the following contributions: (i) we propose to improve the
existing self-supervised approach, with a simple, yet more effective memory
mechanism for long-term correspondence matching, which resolves the challenge
caused by the dis-appearance and reappearance of objects; (ii) by augmenting
the self-supervised approach with an online adaptation module, our method
successfully alleviates tracker drifts caused by spatial-temporal
discontinuity, e.g. occlusions or dis-occlusions, fast motions; (iii) we
explore the efficiency of self-supervised representation learning for dense
tracking, surprisingly, we show that a powerful tracking model can be trained
with as few as 100 raw video clips (equivalent to a duration of 11mins),
indicating that low-level statistics have already been effective for tracking
tasks; (iv) we demonstrate state-of-the-art results among the self-supervised
approaches on DAVIS-2017 and YouTube-VOS, as well as surpassing most of methods
trained with millions of manual segmentation annotations, further bridging the
gap between self-supervised and supervised learning. Codes are released to
foster any further research (https://github.com/fangruizhu/self_sup_semiVOS).
- Abstract(参考訳): 本稿では,半教師付き映像オブジェクトセグメンテーション(つまり,高密度追跡)の解法として,自己教師付き表現学習を提案する。
私たちは次のような貢献をします
i) オブジェクトの出現と再出現による課題を解決するため, 長期対応マッチングのためのシンプルかつ効果的なメモリ機構により, 既存の自己管理アプローチを改善することを提案する。
(II) オンライン適応モジュールによる自己監督的アプローチの強化により, 空間的時間的不連続によるトラッカードリフト, 例えば, 閉塞や非閉塞, 高速動作の軽減に成功している。
(iii) 集中追跡のための自己教師あり表現学習の効率について検討し, 驚くべきことに, パワフルな追跡モデルは, わずか100本の生ビデオクリップ(11分程度)で訓練可能であることを示し, 低レベル統計が既に追跡作業に有効であることを示す。
(4) DAVIS-2017 と YouTube-VOS の自己教師型アプローチの最先端を実証するとともに,数百万の手動セグメンテーションアノテーションで訓練された手法の多くを超越し,自己教師型学習と教師型学習のギャップを埋める。
さらなる研究を促進するためのコード(https://github.com/fangruizhu/self_sup_semiVOS)が公開されている。
関連論文リスト
- Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Dense Unsupervised Learning for Video Segmentation [49.46930315961636]
ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習のための新しいアプローチを提案する。
これまでの研究とは異なり、我々の定式化によって、完全に畳み込みの仕組みで、密集した特徴表現を直接学習することができる。
我々の手法は、トレーニングデータや計算能力が大幅に少ないにもかかわらず、以前の作業のセグメンテーション精度を超える。
論文 参考訳(メタデータ) (2021-11-11T15:15:11Z) - Semi-TCL: Semi-Supervised Track Contrastive Representation Learning [40.31083437957288]
我々は、外観埋め込みを学習するために、新しいインスタンス・ツー・トラックマッチングの目的を設計する。
候補検出とトラッカーに永続化されたトラックの埋め込みを比較する。
我々は,この学習目標を,構成的損失の精神に倣って統一的な形で実施する。
論文 参考訳(メタデータ) (2021-07-06T05:23:30Z) - Hierarchically Decoupled Spatial-Temporal Contrast for Self-supervised
Video Representation Learning [6.523119805288132]
a) 学習対象を2つの対照的なサブタスクに分解し、空間的特徴と時間的特徴を強調し、(b) 階層的にそれを実行し、マルチスケールな理解を促進する。
論文 参考訳(メタデータ) (2020-11-23T08:05:39Z) - Online Descriptor Enhancement via Self-Labelling Triplets for Visual
Data Association [28.03285334702022]
オブジェクトレベルの視覚データアソシエーションのタスクにおいて,視覚記述子を漸進的に精製する自己教師型手法を提案する。
本手法は,ドメインに依存しないデータで事前学習した画像分類ネットワークを継続的にトレーニングすることにより,オンラインのディープディスクリプタジェネレータを最適化する。
提案手法はトラッキング・バイ・ディテクト・タスクに適用された他の視覚的データ・アソシエーション手法を超越し,観測情報に適応しようとする他の手法と比較して,優れた性能向上を提供することを示す。
論文 参考訳(メタデータ) (2020-11-06T17:42:04Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。