論文の概要: MOVE: Motion-Guided Few-Shot Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2507.22061v1
- Date: Tue, 29 Jul 2025 17:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.852782
- Title: MOVE: Motion-Guided Few-Shot Video Object Segmentation
- Title(参考訳): MOVE:モーションガイド付きFew-Shotビデオオブジェクトセグメンテーション
- Authors: Kaining Ying, Hengrui Hu, Henghui Ding,
- Abstract要約: 本研究はFSVOS(Motion-guided few-shot Video Object segmentation)に対処する。
同じモーションパターンの注釈付きサンプルに基づいて、ダイナミックオブジェクトをビデオにセグメントすることを目的としている。
動作誘導型FSVOS用に設計された大規模データセットMOVEを紹介する。
- 参考スコア(独自算出の注目度): 25.624419551994354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses motion-guided few-shot video object segmentation (FSVOS), which aims to segment dynamic objects in videos based on a few annotated examples with the same motion patterns. Existing FSVOS datasets and methods typically focus on object categories, which are static attributes that ignore the rich temporal dynamics in videos, limiting their application in scenarios requiring motion understanding. To fill this gap, we introduce MOVE, a large-scale dataset specifically designed for motion-guided FSVOS. Based on MOVE, we comprehensively evaluate 6 state-of-the-art methods from 3 different related tasks across 2 experimental settings. Our results reveal that current methods struggle to address motion-guided FSVOS, prompting us to analyze the associated challenges and propose a baseline method, Decoupled Motion Appearance Network (DMA). Experiments demonstrate that our approach achieves superior performance in few shot motion understanding, establishing a solid foundation for future research in this direction.
- Abstract(参考訳): この研究は、動画内の動的オブジェクトを同じ動きパターンを持つ注釈付き例に基づいてセグメント化することを目的とした、モーションガイド付き数ショットビデオオブジェクトセグメンテーション(FSVOS)に対処する。
既存のFSVOSデータセットとメソッドは、ビデオのリッチな時間的ダイナミクスを無視し、モーション理解を必要とするシナリオでアプリケーションを制限する静的属性であるオブジェクトカテゴリに重点を置いている。
このギャップを埋めるために,動作誘導型FSVOS用に設計された大規模データセットMOVEを紹介する。
MOVEに基づいて,2つの実験環境にまたがる3つのタスクから6つの最先端手法を総合的に評価した。
この結果から,現在の動作誘導型FSVOSの対処に苦慮していることが明らかとなり,関連する課題を分析し,DMA(Decoupled Motion Appearance Network)というベースライン手法を提案する。
実験により, ショットモーションの理解がほとんどなく, 精度が向上し, 将来的な研究基盤の確立が期待できる。
関連論文リスト
- Segment Any Motion in Videos [80.72424676419755]
本研究では,長距離軌道運動キューとDINOに基づく意味的特徴を組み合わせた移動物体セグメンテーションを提案する。
本モデルでは,動作を優先し,セマンティックサポートを統合しつつ,時空間軌道注意と動き・セマンティック・デカップリング・エンベディングを用いた。
論文 参考訳(メタデータ) (2025-03-28T09:34:11Z) - MeViS: A Large-scale Benchmark for Video Segmentation with Motion
Expressions [93.35942025232943]
複雑な環境下で対象物を示すために,多数の動作表現を含む大規模データセットMeViSを提案する。
本ベンチマークの目的は,効率的な言語誘導ビデオセグメンテーションアルゴリズムの開発を可能にするプラットフォームを提供することである。
論文 参考訳(メタデータ) (2023-08-16T17:58:34Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。