論文の概要: Collaborative Video Object Segmentation by Foreground-Background
Integration
- arxiv url: http://arxiv.org/abs/2003.08333v2
- Date: Thu, 23 Jul 2020 11:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 12:50:17.489033
- Title: Collaborative Video Object Segmentation by Foreground-Background
Integration
- Title(参考訳): 前地上統合による協調的ビデオオブジェクトセグメンテーション
- Authors: Zongxin Yang, Yunchao Wei, Yi Yang
- Abstract要約: 本稿では,フォアグラウンド-バックグラウンド統合(CFBI)アプローチによる協調的ビデオオブジェクトセグメンテーションを提案する。
我々のCFBIは、ターゲット前景オブジェクトとその対応する背景からの機能を暗黙的に強制し、それに応じてセグメンテーション結果を促進する。
我々のCFBIは89.4%、81.9%、81.4%のパフォーマンスを達成し、他の最先端手法よりも優れています。
- 参考スコア(独自算出の注目度): 77.71512243438329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the principles of embedding learning to tackle the
challenging semi-supervised video object segmentation. Different from previous
practices that only explore the embedding learning using pixels from foreground
object (s), we consider background should be equally treated and thus propose
Collaborative video object segmentation by Foreground-Background Integration
(CFBI) approach. Our CFBI implicitly imposes the feature embedding from the
target foreground object and its corresponding background to be contrastive,
promoting the segmentation results accordingly. With the feature embedding from
both foreground and background, our CFBI performs the matching process between
the reference and the predicted sequence from both pixel and instance levels,
making the CFBI be robust to various object scales. We conduct extensive
experiments on three popular benchmarks, i.e., DAVIS 2016, DAVIS 2017, and
YouTube-VOS. Our CFBI achieves the performance (J$F) of 89.4%, 81.9%, and
81.4%, respectively, outperforming all the other state-of-the-art methods.
Code: https://github.com/z-x-yang/CFBI.
- Abstract(参考訳): 本稿では,半教師付き映像オブジェクトセグメンテーションに挑戦するために,組込み学習の原理を検討する。
前景オブジェクトからの画素を用いた埋め込み学習のみを探求する従来の実践とは異なり、背景は等しく扱うべきであると考え、前景背景統合(CFBI)アプローチによる協調的ビデオオブジェクトセグメンテーションを提案する。
我々のCFBIは、ターゲット前景オブジェクトとその対応する背景からの機能を暗黙的に強制し、それに応じてセグメンテーション結果を促進する。
我々のCFBIは、前景と背景の両方から特徴を埋め込むことで、参照と予測シーケンスの一致処理をピクセルレベルとインスタンスレベルの両方から実行し、CFBIをさまざまなオブジェクトスケールに対して堅牢にします。
DAVIS 2016、DAVIS 2017、YouTube-VOSの3つの人気のあるベンチマークで広範な実験を行っている。
我々のCFBIは89.4%、81.9%、81.4%のパフォーマンスを達成し、他の最先端手法よりも優れています。
コード:https://github.com/z-x-yang/CFBI
関連論文リスト
- 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - Look Before You Match: Instance Understanding Matters in Video Object
Segmentation [114.57723592870097]
本稿では,ビデオオブジェクトセグメンテーション(VOS)におけるインスタンスの重要性について論じる。
本稿では,クエリベースのインスタンスセグメンテーション(IS)ブランチを現在のフレームのインスタンス詳細に分割し,VOSブランチをメモリバンクと時空間マッチングする,VOS用の2分岐ネットワークを提案する。
我々は、ISブランチから十分に学習されたオブジェクトクエリを使用して、インスタンス固有の情報をクエリキーに注入し、インスタンス拡張マッチングをさらに実行します。
論文 参考訳(メタデータ) (2022-12-13T18:59:59Z) - Collaborative Attention Memory Network for Video Object Segmentation [3.8520227078236013]
セグメンテーションヘッドを拡張した協調注意記憶ネットワークを提案する。
また,STMネットワークとこれらすべての改良されたCFBIネットワークを組み合わせたアンサンブルネットワークを提案する。
最後に、2021年のYoutube-VOSチャレンジにおいて、総合スコア83.5%で6位となるアプローチを評価した。
論文 参考訳(メタデータ) (2022-05-17T03:40:11Z) - Exploring Intra- and Inter-Video Relation for Surgical Semantic Scene
Segmentation [58.74791043631219]
セグメンテーション性能を高めるために,映像内および映像間関係を補完する新しいフレームワークSTswinCLを提案する。
本研究では,EndoVis18 ChallengeとCaDISデータセットを含む2つの公開手術ビデオベンチマークに対するアプローチを広く検証する。
実験により,従来の最先端手法を一貫して超越した提案手法の有望な性能を示す。
論文 参考訳(メタデータ) (2022-03-29T05:52:23Z) - Learning Position and Target Consistency for Memory-based Video Object
Segmentation [39.787966275016906]
メモリベースのビデオオブジェクトセグメンテーションのための位置と目標整合性フレームワークを学ぶ。
メモリ機構を適用してピクセルをグローバルに取得し、一方、より信頼性の高いセグメンテーションのための位置一貫性を学習する。
実験により、LCMはDAVISとYoutube-VOSベンチマークの両方で最先端のパフォーマンスを達成しています。
論文 参考訳(メタデータ) (2021-04-09T12:22:37Z) - Collaborative Video Object Segmentation by Multi-Scale
Foreground-Background Integration [77.71512243438329]
本稿では,フォアグラウンド・バックグラウンド統合(CFBI)による協調的ビデオオブジェクトセグメンテーションを提案する。
CFBIは、前景のオブジェクト領域とその対応する背景領域に埋め込まれた特徴を分離し、暗黙的にそれらをよりコントラストにし、それに応じてセグメンテーション結果を改善する。
CFBIをベースとして,マルチスケールのマッチング構造を導入し,より堅牢で効率的なフレームワークであるCFBI+を実現するAtrous Matching戦略を提案する。
論文 参考訳(メタデータ) (2020-10-13T13:06:10Z) - Learning Discriminative Feature with CRF for Unsupervised Video Object
Segmentation [34.1031534327244]
本稿では,非教師付きビデオオブジェクトセグメンテーションタスクに対処するために,識別機能ネットワーク(DFNet)を導入する。
DFNetは最先端の手法を大差で上回り、平均IoUスコアは83.4%である。
DFNetはイメージオブジェクトのコセグメンテーションタスクにも適用されます。
論文 参考訳(メタデータ) (2020-08-04T01:53:56Z) - Learning What to Learn for Video Object Segmentation [157.4154825304324]
本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
論文 参考訳(メタデータ) (2020-03-25T17:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。