論文の概要: 1st Place Solution for the UVO Challenge on Video-based Open-World
Segmentation 2021
- arxiv url: http://arxiv.org/abs/2110.11661v1
- Date: Fri, 22 Oct 2021 08:39:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-10-25 22:49:40.586951
- Title: 1st Place Solution for the UVO Challenge on Video-based Open-World
Segmentation 2021
- Title(参考訳): オープンワールドセグメンテーション2021におけるuvoチャレンジの1位
- Authors: Yuming Du, Wen Guo, Yang Xiao, Vincent Lepetit
- Abstract要約: 本稿では,2段階の"detect-then-match"ビデオインスタンスセグメンテーション手法を提案する。
UVO 2021ビデオベースのオープンワールドチャレンジでは,このアプローチが初となる。
- 参考スコア(独自算出の注目度): 37.07929663247443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this report, we introduce our (pretty straightforard) two-step
"detect-then-match" video instance segmentation method. The first step performs
instance segmentation for each frame to get a large number of instance mask
proposals. The second step is to do inter-frame instance mask matching with the
help of optical flow. We demonstrate that with high quality mask proposals, a
simple matching mechanism is good enough for tracking. Our approach achieves
the first place in the UVO 2021 Video-based Open-World Segmentation Challenge.
- Abstract(参考訳): 本稿では,2段階の"detect-then-match"ビデオインスタンスセグメンテーション手法について紹介する。
最初のステップでは、各フレームのインスタンスセグメンテーションを実行し、多数のインスタンスマスクの提案を得る。
2番目のステップは、光学フローの助けを借りてフレーム間インスタンスのマスクマッチングを行うことである。
高品質なマスクの提案では、単純なマッチング機構が追跡に十分であることを示す。
UVO 2021ビデオベースのオープンワールドセグメンテーションチャレンジでは,このアプローチが初となる。
関連論文リスト
- Consistent Video Instance Segmentation with Inter-Frame Recurrent
Attention [23.72098615213679]
ビデオインスタンスセグメンテーションは、各フレームのオブジェクトセグメンテーションマスクの予測と、複数のフレームでインスタンスを関連付けることを目的としている。
最近のエンドツーエンドビデオインスタンスセグメンテーション手法は、直接並列シーケンスデコード/予測フレームワークにおいて、オブジェクトセグメンテーションとインスタンスアソシエーションを一緒に行うことができる。
本稿では,隣接するフレームの時間的インスタンス一貫性とグローバルな時間的コンテキストの両方をモデル化するために,フレーム間リカレントアテンションを用いた一貫したエンドツーエンドビデオインスタンスセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-14T17:22:55Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Contextual Guided Segmentation Framework for Semi-supervised Video
Instance Segmentation [20.174393465900156]
ビデオインスタンスのセグメンテーションを3つのパスで行うためのContextual Guided (CGS) フレームワークを提案する。
最初のパス、すなわちプレビューセグメンテーションでは、各インスタンスの主特性を推定するためにインスタンス再識別フローを提案します。
第2のパス、すなわちコンテキストセグメンテーションでは、複数のコンテキストセグメンテーションスキームを導入する。
DAVIS Test-Challengeデータセットを用いて実験を行い,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-06-07T04:16:50Z) - Video Instance Segmentation with a Propose-Reduce Paradigm [68.59137660342326]
ビデオインスタンスセグメンテーション(VIS)は、ビデオ内の各フレームごとに定義されたクラスのすべてのインスタンスをセグメンテーションし、関連付けることを目的とする。
先行メソッドは通常、フレームまたはクリップのセグメンテーションを最初に取得し、追跡またはマッチングによって不完全な結果をマージします。
新しいパラダイムであるPropose-Reduceを提案し、入力ビデオの完全なシーケンスを1ステップで生成します。
論文 参考訳(メタデータ) (2021-03-25T10:58:36Z) - VideoClick: Video Object Segmentation with a Single Click [93.7733828038616]
ビデオ中の各オブジェクトに対して1クリックずつのボトムアップアプローチを提案し,全ビデオ中の各オブジェクトのセグメンテーションマスクを取得する。
特に、対象フレーム内の各ピクセルを基準フレーム内のオブジェクトまたは背景のいずれかに割り当てる相関ボリュームを構築します。
この新しいCityscapesVideoデータセットの結果から、この困難な環境では、私たちのアプローチがすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2021-01-16T23:07:48Z) - End-to-End Video Instance Segmentation with Transformers [84.17794705045333]
ビデオインスタンスセグメンテーション(ビデオインスタンスセグメンテーション、英: Video instance segmentation、VIS)は、ビデオに関心のあるオブジェクトインスタンスを同時に分類、セグメンテーション、追跡することを必要とするタスクである。
本稿では,Transformer上に構築された新しいビデオインスタンスセグメンテーションフレームワークVisTRを提案する。
初めて、Transformers上に構築されたよりシンプルで高速なビデオインスタンスセグメンテーションフレームワークをデモし、競争力のある精度を実現した。
論文 参考訳(メタデータ) (2020-11-30T02:03:50Z) - Mask Encoding for Single Shot Instance Segmentation [97.99956029224622]
マスクエンコーディングに基づくインスタンスセグメンテーション(MEInst)と呼ばれる単純なシングルショットインスタンスセグメンテーションフレームワークを提案する。
二次元マスクを直接予測する代わりに、MEInstはそれをコンパクトで固定的な表現ベクトルに蒸留する。
よりシンプルでフレキシブルな一段階のインスタンスセグメンテーション手法は、競合性能も達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T02:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。