論文の概要: Appearance-based Refinement for Object-Centric Motion Segmentation
- arxiv url: http://arxiv.org/abs/2312.11463v1
- Date: Mon, 18 Dec 2023 18:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 18:42:37.026388
- Title: Appearance-based Refinement for Object-Centric Motion Segmentation
- Title(参考訳): 物体中心運動セグメンテーションのための外観ベースリファインメント
- Authors: Junyu Xie, Weidi Xie, Andrew Zisserman
- Abstract要約: 本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では, 正確な流量予測マスクを模範として, 簡単な選択機構を用いる。
パフォーマンスは、DAVIS、YouTubeVOS、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
- 参考スコア(独自算出の注目度): 95.80420062679104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of this paper is to discover, segment, and track independently
moving objects in complex visual scenes. Previous approaches have explored the
use of optical flow for motion segmentation, leading to imperfect predictions
due to partial motion, background distraction, and object articulations and
interactions. To address this issue, we introduce an appearance-based
refinement method that leverages temporal consistency in video streams to
correct inaccurate flow-based proposals. Our approach involves a simple
selection mechanism that identifies accurate flow-predicted masks as exemplars,
and an object-centric architecture that refines problematic masks based on
exemplar information. The model is pre-trained on synthetic data and then
adapted to real-world videos in a self-supervised manner, eliminating the need
for human annotations. Its performance is evaluated on multiple video
segmentation benchmarks, including DAVIS, YouTubeVOS, SegTrackv2, and FBMS-59.
We achieve competitive performance on single-object segmentation, while
significantly outperforming existing models on the more challenging problem of
multi-object segmentation. Finally, we investigate the benefits of using our
model as a prompt for a per-frame Segment Anything Model.
- Abstract(参考訳): 本研究の目的は,複雑な視覚シーンにおける独立して動く物体の発見,セグメント化,追跡である。
従来のアプローチでは、動きのセグメンテーションに光の流れを用いることが検討されており、部分的な動き、背景の注意散らし、物体の関節と相互作用による不完全な予測につながっている。
この問題に対処するために,ビデオストリームの時間的一貫性を活用し,不正確なフローベース提案を補正する外観改善手法を提案する。
提案手法は,正確なフロー予測マスクを例示として識別する簡易な選択機構と,問題のあるマスクを例示情報に基づいて洗練するオブジェクト中心アーキテクチャを含む。
このモデルは、合成データに基づいて事前訓練され、実際のビデオに自己監督的に適応し、人間のアノテーションを必要としない。
パフォーマンスは、davis、youtubevos、segtrackv2、fbms-59を含む複数のビデオセグメンテーションベンチマークで評価される。
単一対象セグメンテーションにおける競合性能は高いが,複数対象セグメンテーションの課題では既存モデルよりも優れていた。
最後に、フレームごとのセグメンテーションモデルに対するプロンプトとして、我々のモデルを使用することの利点について検討する。
関連論文リスト
- LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - FODVid: Flow-guided Object Discovery in Videos [12.792602427704395]
我々は、個々の複雑さに過度に適合しないように、一般化可能なソリューションを構築することに注力する。
教師なしの環境でビデオオブジェクト(VOS)を解決するために,セグメント出力の導出に基づく新しいパイプライン(FODVid)を提案する。
論文 参考訳(メタデータ) (2023-07-10T07:55:42Z) - Efficient Unsupervised Video Object Segmentation Network Based on Motion
Guidance [1.5736899098702974]
本稿では,モーションガイダンスに基づく映像オブジェクト分割ネットワークを提案する。
モデルは、デュアルストリームネットワーク、モーションガイダンスモジュール、マルチスケールプログレッシブフュージョンモジュールを含む。
実験により,提案手法の優れた性能が証明された。
論文 参考訳(メタデータ) (2022-11-10T06:13:23Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Weakly Supervised Instance Segmentation using Motion Information via
Optical Flow [3.0763099528432263]
画像と光の流れから抽出した外観と運動の特徴を利用する2ストリームエンコーダを提案する。
提案手法は,最先端手法の平均精度を3.1倍に向上することを示した。
論文 参考訳(メタデータ) (2022-02-25T22:41:54Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。