論文の概要: Unidentified Video Objects: A Benchmark for Dense, Open-World
Segmentation
- arxiv url: http://arxiv.org/abs/2104.04691v1
- Date: Sat, 10 Apr 2021 06:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:16:41.784263
- Title: Unidentified Video Objects: A Benchmark for Dense, Open-World
Segmentation
- Title(参考訳): 未確認ビデオオブジェクト:密集したオープンワールドセグメンテーションのためのベンチマーク
- Authors: Weiyao Wang, Matt Feiszli, Heng Wang, Du Tran
- Abstract要約: ビデオのオープンワールドクラス非依存オブジェクトセグメンテーションの新しいベンチマークであるUVOを紹介します。
UVOは、DAVISの約8倍の動画を提供し、YouTube-VOSやYouTube-VISの7倍のマスク(インスタンス)アノテーションを提供する。
UVOは、混み合ったシーンや複雑な背景の動きを含む多くのビデオを含むため、さらに難しい。
- 参考スコア(独自算出の注目度): 29.81399150391822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art object detection and segmentation methods work well
under the closed-world assumption. This closed-world setting assumes that the
list of object categories is available during training and deployment. However,
many real-world applications require detecting or segmenting novel objects,
i.e., object categories never seen during training. In this paper, we present,
UVO (Unidentified Video Objects), a new benchmark for open-world class-agnostic
object segmentation in videos. Besides shifting the problem focus to the
open-world setup, UVO is significantly larger, providing approximately 8 times
more videos compared with DAVIS, and 7 times more mask (instance) annotations
per video compared with YouTube-VOS and YouTube-VIS. UVO is also more
challenging as it includes many videos with crowded scenes and complex
background motions. We demonstrated that UVO can be used for other
applications, such as object tracking and super-voxel segmentation, besides
open-world object segmentation. We believe that UVo is a versatile testbed for
researchers to develop novel approaches for open-world class-agnostic object
segmentation, and inspires new research directions towards a more comprehensive
video understanding beyond classification and detection.
- Abstract(参考訳): 現在の最先端のオブジェクト検出とセグメンテーション手法は、クローズドワールドの仮定の下でうまく機能する。
このクローズドワールド設定は、トレーニングとデプロイメントの間にオブジェクトカテゴリのリストが利用可能であることを前提としている。
しかし、現実世界の多くのアプリケーションは、新しいオブジェクトを検知またはセグメント化する必要がある。
本稿では,ビデオにおけるオープンワールドクラス非依存オブジェクトセグメンテーションのための新しいベンチマーク uvo (unidentified video objects) を提案する。
問題の焦点をオープンワールドにシフトするだけでなく、UVOははるかに大きく、DAVISの約8倍のビデオを提供し、YouTube-VOSやYouTube-VISの7倍のマスク(インスタンス)アノテーションを提供する。
UVOは、混み合ったシーンや複雑な背景の動きを含む多くのビデオを含むため、さらに難しい。
我々は,オープンワールドオブジェクトセグメンテーション以外に,オブジェクトトラッキングやスーパーボクセルセグメンテーションなど,他のアプリケーションにもUVOが利用できることを示した。
UVoは、オープンワールドのクラスに依存しないオブジェクトセグメンテーションのための新しいアプローチを開発するための、汎用的なテストベッドであると考えています。
関連論文リスト
- Learning the What and How of Annotation in Video Object Segmentation [11.012995995497029]
ビデオオブジェクト(VOS)は、ビデオ編集からビデオデータ生成まで、いくつかのアプリケーションにとって不可欠である。
従来のアノテート手法では、ビデオフレームごとにターゲットオブジェクトに詳細なセグメンテーションマスクを描く必要がある。
ビデオオブジェクトセグメンテーションのためのヒューマン・イン・ザ・ループアノテーションフレームワークであるEVA-VOSを提案する。
論文 参考訳(メタデータ) (2023-11-08T00:56:31Z) - Tracking Anything with Decoupled Video Segmentation [87.07258378407289]
我々はデカップリングビデオセグメンテーションアプローチ(DEVA)を開発した。
タスク固有のイメージレベルセグメンテーションと、クラス/タスク非依存の双方向の時間的伝搬で構成されている。
この分離された定式化は、複数のデータスカースタスクにおけるエンドツーエンドのアプローチと良好に比較できることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:59:41Z) - Towards Open-Vocabulary Video Instance Segmentation [61.469232166803465]
Video Instanceは、ビデオ内のオブジェクトをクローズドなトレーニングカテゴリから分類し分類することを目的としている。
本稿では,オープンなカテゴリからビデオ内のオブジェクトを分割,追跡,分類することを目的とした,Open-Vocabulary Video Instanceの新たなタスクを紹介する。
Open-Vocabulary VISをベンチマークするために、我々は1,196の多様なカテゴリから、よく注釈付けされたオブジェクトを含む大語彙ビデオインスタンスデータセット(LV-VIS)を収集します。
論文 参考訳(メタデータ) (2023-04-04T11:25:23Z) - MOSE: A New Dataset for Video Object Segmentation in Complex Scenes [106.64327718262764]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオクリップシーケンス全体を通して特定のオブジェクトをセグメンテーションすることを目的としている。
最先端のVOSメソッドは、既存のデータセット上で優れたパフォーマンス(例えば、90%以上のJ&F)を達成した。
我々は、複雑な環境でのトラッキングとセグメンテーションを研究するために、coMplex video Object SEgmentation (MOSE)と呼ばれる新しいVOSデータセットを収集する。
論文 参考訳(メタデータ) (2023-02-03T17:20:03Z) - A Comprehensive Review of Modern Object Segmentation Approaches [1.7041248235270654]
画像セグメンテーション(英: Image segmentation)とは、画像中のピクセルをそれぞれのオブジェクトクラスラベルに関連付けるタスクである。
画像レベルのオブジェクト認識と画素レベルのシーン理解のためのディープラーニングベースのアプローチが開発されている。
イメージセグメンテーションタスクの拡張には、3Dとビデオセグメンテーションが含まれており、voxポイントクラウドのユニットとビデオフレームは異なるオブジェクトに分類される。
論文 参考訳(メタデータ) (2023-01-13T19:35:46Z) - Breaking the "Object" in Video Object Segmentation [36.20167854011788]
変換(VOST)に基づくビデオオブジェクトのデータセットを提案する。
700以上の高解像度ビデオで構成され、さまざまな環境で撮影され、平均21秒の長さで、マスクのインスタンスで密にラベル付けされている。
これらのビデオは、複雑なオブジェクト変換に焦点を合わせ、その完全な時間的範囲を捉えるために、注意深いマルチステップのアプローチが採用されている。
本研究は,本課題に適用した場合の既存手法の問題点と,その主な限界が,静的な外観上の過度な信頼にあることを示す。
論文 参考訳(メタデータ) (2022-12-12T19:22:17Z) - Efficient Video Instance Segmentation via Tracklet Query and Proposal [62.897552852894854]
Video Instanceは、ビデオ内の複数のオブジェクトインスタンスを同時に分類、セグメント化、追跡することを目的としている。
ほとんどのクリップレベルメソッドはエンドツーエンドの学習可能でもリアルタイムでもない。
本稿では,効率的なトレーニングと推論を行う完全エンドツーエンドフレームワークであるEfficientVISを提案する。
論文 参考訳(メタデータ) (2022-03-03T17:00:11Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。