論文の概要: MAST: A Memory-Augmented Self-supervised Tracker
- arxiv url: http://arxiv.org/abs/2002.07793v2
- Date: Wed, 26 Feb 2020 00:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:32:38.154091
- Title: MAST: A Memory-Augmented Self-supervised Tracker
- Title(参考訳): MAST: メモリ拡張型セルフトラッカー
- Authors: Zihang Lai, Erika Lu, Weidi Xie
- Abstract要約: 本稿では,既存のベンチマークにおいて,従来の自己監督手法をはるかに上回るアノテーションを伴わない,ビデオ上で訓練された高密度追跡モデルを提案する。
アーキテクチャを重要なメモリコンポーネントで拡張することで、既存のメソッドをさらに改善します。
最初の2つのコントリビューションは、トラヒックトラッキングの標準評価基準に関する教師付き手法と、初めて競合するセルフ教師付きネットワークを提供する。
- 参考スコア(独自算出の注目度): 30.160827983527195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent interest in self-supervised dense tracking has yielded rapid progress,
but performance still remains far from supervised methods. We propose a dense
tracking model trained on videos without any annotations that surpasses
previous self-supervised methods on existing benchmarks by a significant margin
(+15%), and achieves performance comparable to supervised methods. In this
paper, we first reassess the traditional choices used for self-supervised
training and reconstruction loss by conducting thorough experiments that
finally elucidate the optimal choices. Second, we further improve on existing
methods by augmenting our architecture with a crucial memory component. Third,
we benchmark on large-scale semi-supervised video object segmentation(aka.
dense tracking), and propose a new metric: generalizability. Our first two
contributions yield a self-supervised network that for the first time is
competitive with supervised methods on standard evaluation metrics of dense
tracking. When measuring generalizability, we show self-supervised approaches
are actually superior to the majority of supervised methods. We believe this
new generalizability metric can better capture the real-world use-cases for
dense tracking, and will spur new interest in this research direction.
- Abstract(参考訳): 近年、自己監督型密集追跡への関心は急速に進展しているが、その性能は教師付き手法からは程遠いままである。
本稿では,既存のベンチマークにおける従来の自己監督手法を15%以上上回るアノテーションを伴わずにビデオ上で訓練された密集追跡モデルを提案し,教師付き手法に匹敵する性能を実現する。
本稿では,まず,自己指導型学習と再建の損失に対する従来の選択を総合的な実験によって再評価し,最終的に最適な選択を解明する。
第2に、重要なメモリコンポーネントでアーキテクチャを増強することで、既存のメソッドをさらに改善します。
第3に,大規模半教師付き映像オブジェクトセグメンテーション(いわゆる高密度追跡)のベンチマークを行い,新しい指標である一般化可能性を提案する。
最初の2つのコントリビュートによって,集中追跡の標準評価指標における教師付き手法と初めて競合する自己教師付きネットワークが生まれました。
一般化可能性を測定する際には,自己監督的アプローチが指導的手法の大多数よりも優れていることを示す。
この新しい一般化可能性尺度は、密集した追跡のための現実世界のユースケースをよりよく捉え、この研究の方向性に新たな関心を惹きつけるだろうと考えている。
関連論文リスト
- RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - DINO-Tracker: Taming DINO for Self-Supervised Point Tracking in a Single Video [20.122867451036086]
DINO-Trackerは、ビデオの長時間の密集追跡のための新しいフレームワークだ。
単一のビデオ上でのテスト時間トレーニングと、事前トレーニングされたDINO-ViTモデルによって学習された強力なローカライズされたセマンティック機能を組み合わせる。
DINOトラッカーは自己管理手法よりも優れ、最先端のトラッカーと競合する。
論文 参考訳(メタデータ) (2024-03-21T16:49:20Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Creating Something from Nothing: Unsupervised Knowledge Distillation for
Cross-Modal Hashing [132.22315429623575]
クロスモーダルハッシュ(CMH)は、特に視覚や言語において、異なるモーダルからのコンテンツを同じ空間にマッピングすることができる。
CMHには2つの主要なフレームワークがある。
本稿では,教師なし手法を用いて教師なし手法を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T08:32:15Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z) - Learning by Analogy: Reliable Supervision from Transformations for
Unsupervised Optical Flow Estimation [83.23707895728995]
光フローの教師なし学習は、教師付き手法に代わる有望な代替手段として登場した。
私たちは、トランスフォーメーションからより信頼性の高い監視を使用するためのフレームワークを提示します。
提案手法は, 深い教師なし手法の中で, 最高の精度で, いくつかのベンチマークで連続的に性能を向上する。
論文 参考訳(メタデータ) (2020-03-29T14:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。