論文の概要: Collaborative Video Object Segmentation by Multi-Scale
Foreground-Background Integration
- arxiv url: http://arxiv.org/abs/2010.06349v2
- Date: Sun, 16 May 2021 11:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:06:00.267303
- Title: Collaborative Video Object Segmentation by Multi-Scale
Foreground-Background Integration
- Title(参考訳): マルチスケールフォアグラウンド-背景統合による協調的ビデオオブジェクトセグメンテーション
- Authors: Zongxin Yang, Yunchao Wei, Yi Yang
- Abstract要約: 本稿では,フォアグラウンド・バックグラウンド統合(CFBI)による協調的ビデオオブジェクトセグメンテーションを提案する。
CFBIは、前景のオブジェクト領域とその対応する背景領域に埋め込まれた特徴を分離し、暗黙的にそれらをよりコントラストにし、それに応じてセグメンテーション結果を改善する。
CFBIをベースとして,マルチスケールのマッチング構造を導入し,より堅牢で効率的なフレームワークであるCFBI+を実現するAtrous Matching戦略を提案する。
- 参考スコア(独自算出の注目度): 77.71512243438329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the principles of embedding learning to tackle the
challenging semi-supervised video object segmentation. Unlike previous
practices that focus on exploring the embedding learning of foreground object
(s), we consider background should be equally treated. Thus, we propose a
Collaborative video object segmentation by Foreground-Background Integration
(CFBI) approach. CFBI separates the feature embedding into the foreground
object region and its corresponding background region, implicitly promoting
them to be more contrastive and improving the segmentation results accordingly.
Moreover, CFBI performs both pixel-level matching processes and instance-level
attention mechanisms between the reference and the predicted sequence, making
CFBI robust to various object scales. Based on CFBI, we introduce a multi-scale
matching structure and propose an Atrous Matching strategy, resulting in a more
robust and efficient framework, CFBI+. We conduct extensive experiments on two
popular benchmarks, i.e., DAVIS and YouTube-VOS. Without applying any simulated
data for pre-training, our CFBI+ achieves the performance (J&F) of 82.9% and
82.8%, outperforming all the other state-of-the-art methods. Code:
https://github.com/z-x-yang/CFBI.
- Abstract(参考訳): 本稿では,半教師付き映像オブジェクトセグメンテーションに挑戦するために,組込み学習の原理を検討する。
前景オブジェクト(s)の埋め込み学習を探求する従来のプラクティスとは異なり、背景は同じように扱われるべきである。
そこで我々は,前景背景統合(CFBI)アプローチによる協調的ビデオオブジェクトセグメンテーションを提案する。
CFBIは、前景オブジェクト領域とその対応する背景領域に埋め込まれた特徴を分離し、暗黙的にそれらをよりコントラストにし、それに応じてセグメンテーション結果を改善する。
さらに、CFBIは、参照と予測シーケンスの間の画素レベルのマッチングプロセスとインスタンスレベルのアテンション機構の両方を実行し、さまざまなオブジェクトスケールに対して堅牢である。
CFBIをベースとして,マルチスケールのマッチング構造を導入し,より堅牢で効率的なフレームワークであるCFBI+を実現するAtrous Matching戦略を提案する。
DAVISとYouTube-VOSという2つの人気のあるベンチマークで広範な実験を行った。
プリトレーニングにシミュレーションデータを適用することなく、cfbi+は82.9%と82.8%のパフォーマンス(j&f)を達成し、他の最先端の手法を上回っています。
コード:https://github.com/z-x-yang/CFBI
関連論文リスト
- UIFormer: A Unified Transformer-based Framework for Incremental Few-Shot Object Detection and Instance Segmentation [38.331860053615955]
本稿では,Transformerアーキテクチャを用いたインクリメンタルな小ショットオブジェクト検出(iFSOD)とインスタンスセグメンテーション(iFSIS)のための新しいフレームワークを提案する。
私たちのゴールは、新しいオブジェクトクラスのいくつかの例しか利用できない状況に対して最適なソリューションを作ることです。
論文 参考訳(メタデータ) (2024-11-13T12:29:44Z) - Panoptic Out-of-Distribution Segmentation [11.388678390784195]
連立画素レベルのセマンティック・イン・ディストリビューションとインスタンス予測を用いたアウト・オブ・ディストリビューション分類のためのパノプティカル・アウト・オブ・ディストリビューションを提案する。
データセット、コード、トレーニングされたモデルをhttp://pods.cs.uni-freiburg.deで公開しています。
論文 参考訳(メタデータ) (2023-10-18T08:38:31Z) - Dual Prototype Attention for Unsupervised Video Object Segmentation [28.725754274542304]
教師なしビデオオブジェクトセグメンテーション(VOS)は、ビデオ中の最も有能なオブジェクトを検出し、セグメンテーションすることを目的としている。
本稿では,2つの新しいプロトタイプベースアテンション機構,IMA(Inter-modality attention)とフレーム間アテンション(IFA)を提案する。
論文 参考訳(メタデータ) (2022-11-22T06:19:17Z) - Collaborative Attention Memory Network for Video Object Segmentation [3.8520227078236013]
セグメンテーションヘッドを拡張した協調注意記憶ネットワークを提案する。
また,STMネットワークとこれらすべての改良されたCFBIネットワークを組み合わせたアンサンブルネットワークを提案する。
最後に、2021年のYoutube-VOSチャレンジにおいて、総合スコア83.5%で6位となるアプローチを評価した。
論文 参考訳(メタデータ) (2022-05-17T03:40:11Z) - A Unified Transformer Framework for Group-based Segmentation:
Co-Segmentation, Co-Saliency Detection and Video Salient Object Detection [59.21990697929617]
人間は、ダイナミックな世界に住んでいるので、画像のグループやビデオのフレームから学ぶことによってオブジェクトをマイニングする傾向があります。
従来のアプローチでは、類似したタスクで異なるネットワークを個別に設計するが、互いに適用するのは困難である。
UFO(UnifiedObject Framework for Co-Object Framework)という,これらの問題に対処するための統一フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-09T13:35:19Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation [84.2925550033094]
ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
論文 参考訳(メタデータ) (2020-08-14T07:45:50Z) - Learning What to Learn for Video Object Segmentation [157.4154825304324]
本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
論文 参考訳(メタデータ) (2020-03-25T17:58:43Z) - Collaborative Video Object Segmentation by Foreground-Background
Integration [77.71512243438329]
本稿では,フォアグラウンド-バックグラウンド統合(CFBI)アプローチによる協調的ビデオオブジェクトセグメンテーションを提案する。
我々のCFBIは、ターゲット前景オブジェクトとその対応する背景からの機能を暗黙的に強制し、それに応じてセグメンテーション結果を促進する。
我々のCFBIは89.4%、81.9%、81.4%のパフォーマンスを達成し、他の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2020-03-18T16:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。