論文の概要: Learning Position and Target Consistency for Memory-based Video Object
Segmentation
- arxiv url: http://arxiv.org/abs/2104.04329v1
- Date: Fri, 9 Apr 2021 12:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:04:09.517539
- Title: Learning Position and Target Consistency for Memory-based Video Object
Segmentation
- Title(参考訳): メモリベース映像オブジェクトセグメンテーションにおける学習位置と目標整合性
- Authors: Li Hu, Peng Zhang, Bang Zhang, Pan Pan, Yinghui Xu, Rong Jin
- Abstract要約: メモリベースのビデオオブジェクトセグメンテーションのための位置と目標整合性フレームワークを学ぶ。
メモリ機構を適用してピクセルをグローバルに取得し、一方、より信頼性の高いセグメンテーションのための位置一貫性を学習する。
実験により、LCMはDAVISとYoutube-VOSベンチマークの両方で最先端のパフォーマンスを達成しています。
- 参考スコア(独自算出の注目度): 39.787966275016906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of semi-supervised video object
segmentation(VOS). Multiple works have shown that memory-based approaches can
be effective for video object segmentation. They are mostly based on
pixel-level matching, both spatially and temporally. The main shortcoming of
memory-based approaches is that they do not take into account the sequential
order among frames and do not exploit object-level knowledge from the target.
To address this limitation, we propose to Learn position and target Consistency
framework for Memory-based video object segmentation, termed as LCM. It applies
the memory mechanism to retrieve pixels globally, and meanwhile learns position
consistency for more reliable segmentation. The learned location response
promotes a better discrimination between target and distractors. Besides, LCM
introduces an object-level relationship from the target to maintain target
consistency, making LCM more robust to error drifting. Experiments show that
our LCM achieves state-of-the-art performance on both DAVIS and Youtube-VOS
benchmark. And we rank the 1st in the DAVIS 2020 challenge semi-supervised VOS
task.
- Abstract(参考訳): 本稿では,半教師付きビデオオブジェクトセグメンテーション(VOS)の問題について検討する。
複数の研究が、メモリベースのアプローチがビデオオブジェクトのセグメンテーションに有効であることを示した。
主に、空間的にも時間的にもピクセルレベルのマッチングに基づいている。
メモリベースのアプローチの主な欠点は、フレーム間のシーケンシャルな順序を考慮せず、ターゲットからのオブジェクトレベルの知識を活用しないことである。
この制限に対処するために,lcmと呼ばれるメモリベースビデオオブジェクトセグメンテーションの位置と目標整合性フレームワークを学習することを提案する。
メモリ機構を適用してピクセルをグローバルに取得し、一方、より信頼性の高いセグメンテーションのための位置一貫性を学習する。
学習された位置応答は、ターゲットとイントラクタのより良い識別を促進する。
さらに、LCMは目標からのオブジェクトレベルの関係を導入して、目標の一貫性を維持する。
実験の結果,DAVISとYoutube-VOSベンチマークの両方において,LCMが最先端の性能を達成することがわかった。
DAVIS 2020の準教師付きVOSタスクでは、第1位にランク付けします。
関連論文リスト
- Training-Free Robust Interactive Video Object Segmentation [82.05906654403684]
対話型ビデオオブジェクトセグメンテーション(I-PT)のためのトレーニングフリープロンプトトラッキングフレームワークを提案する。
スパースポイントとボックストラッキングを共同で採用し、不安定なポイントをフィルタリングし、オブジェクトワイズ情報をキャプチャします。
我々のフレームワークは、人気のあるVOSデータセット上で、ゼロショットビデオセグメンテーションの堅牢な結果を示してきた。
論文 参考訳(メタデータ) (2024-06-08T14:25:57Z) - Video Object Segmentation with Dynamic Query Modulation [23.811776213359625]
オブジェクトとマルチオブジェクトセグメンテーションのためのクエリ変調手法QMVOSを提案する。
提案手法は,メモリベースSVOS法を大幅に改善し,標準SVOSベンチマーク上での競合性能を実現する。
論文 参考訳(メタデータ) (2024-03-18T07:31:39Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - Reliability-Hierarchical Memory Network for Scribble-Supervised Video
Object Segmentation [25.59883486325534]
本稿では,ビデオオブジェクトセグメンテーション(VOS)タスクをスクリブル教師方式で解決することを目的とする。
本稿では,高密度な結果を予測するためのモデル学習を容易にするために,スクリブル教師付き学習機構を提案する。
論文 参考訳(メタデータ) (2023-03-25T07:21:40Z) - Look Before You Match: Instance Understanding Matters in Video Object
Segmentation [114.57723592870097]
本稿では,ビデオオブジェクトセグメンテーション(VOS)におけるインスタンスの重要性について論じる。
本稿では,クエリベースのインスタンスセグメンテーション(IS)ブランチを現在のフレームのインスタンス詳細に分割し,VOSブランチをメモリバンクと時空間マッチングする,VOS用の2分岐ネットワークを提案する。
我々は、ISブランチから十分に学習されたオブジェクトクエリを使用して、インスタンス固有の情報をクエリキーに注入し、インスタンス拡張マッチングをさらに実行します。
論文 参考訳(メタデータ) (2022-12-13T18:59:59Z) - Region Aware Video Object Segmentation with Deep Motion Modeling [56.95836951559529]
Region Aware Video Object (RAVOS) は、効率的なオブジェクトセグメンテーションとメモリストレージのための関心領域を予測する手法である。
効率的なセグメンテーションのために、ROIに応じてオブジェクトの特徴を抽出し、オブジェクトレベルのセグメンテーションのためにオブジェクトデコーダを設計する。
効率的なメモリ記憶のために,2つのフレーム間のオブジェクトの移動経路内の特徴を記憶することで,冗長なコンテキストをフィルタリングする動作パスメモリを提案する。
論文 参考訳(メタデータ) (2022-07-21T01:44:40Z) - Learning Quality-aware Dynamic Memory for Video Object Segmentation [32.06309833058726]
本稿では,各フレームのセグメンテーション品質を評価するために,QDMN(Quality-Aware Dynamic Memory Network)を提案する。
我々のQDMNは、DAVISとYouTube-VOSベンチマークの両方で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-07-16T12:18:04Z) - Adaptive Memory Management for Video Object Segmentation [6.282068591820945]
マッチングベースのネットワークは、将来の推論のために、各kフレームを外部メモリバンクに格納する。
メモリバンクのサイズはビデオの長さによって徐々に増加し、推論速度が遅くなり、任意の長さのビデオを扱うのが不可能になる。
本稿では、半教師付きビデオオブジェクトセグメンテーション(VOS)のためのマッチングベースネットワークのための適応型メモリバンク戦略を提案する。
論文 参考訳(メタデータ) (2022-04-13T19:59:07Z) - Learning What to Learn for Video Object Segmentation [157.4154825304324]
本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
論文 参考訳(メタデータ) (2020-03-25T17:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。