論文の概要: 5th Place Solution for YouTube-VOS Challenge 2022: Video Object
Segmentation
- arxiv url: http://arxiv.org/abs/2206.09585v1
- Date: Mon, 20 Jun 2022 06:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 15:04:51.434005
- Title: 5th Place Solution for YouTube-VOS Challenge 2022: Video Object
Segmentation
- Title(参考訳): 第5回YouTube-VOSチャレンジ2022:ビデオオブジェクトのセグメンテーション
- Authors: Wangwang Yang, Jinming Su, Yiting Duan, Tingyi Guo and Junfeng Luo
- Abstract要約: ビデオオブジェクトセグメンテーション(VOS)は、ディープラーニングの台頭とともに大きな進歩を遂げた。
類似の物体は容易に混同され、小さな物体を見つけるのが困難である。
本稿では,この課題に対する単純かつ効果的な解決法を提案する。
- 参考スコア(独自算出の注目度): 4.004851693068654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video object segmentation (VOS) has made significant progress with the rise
of deep learning. However, there still exist some thorny problems, for example,
similar objects are easily confused and tiny objects are difficult to be found.
To solve these problems and further improve the performance of VOS, we propose
a simple yet effective solution for this task. In the solution, we first
analyze the distribution of the Youtube-VOS dataset and supplement the dataset
by introducing public static and video segmentation datasets. Then, we improve
three network architectures with different characteristics and train several
networks to learn the different characteristics of objects in videos. After
that, we use a simple way to integrate all results to ensure that different
models complement each other. Finally, subtle post-processing is carried out to
ensure accurate video object segmentation with precise boundaries. Extensive
experiments on Youtube-VOS dataset show that the proposed solution achieves the
state-of-the-art performance with an 86.1% overall score on the YouTube-VOS
2022 test set, which is 5th place on the video object segmentation track of the
Youtube-VOS Challenge 2022.
- Abstract(参考訳): ビデオオブジェクトセグメンテーション(VOS)は、ディープラーニングの台頭とともに大きな進歩を遂げた。
しかし、類似した物体は容易に混乱し、小さな物体を見つけるのが困難であるなど、まだいくつかの厄介な問題が残っている。
これらの問題の解決とVOSの性能向上のために,本課題に対して,単純かつ効果的な解法を提案する。
このソリューションでは,まずyoutube-vosデータセットの分布を分析し,公開静的およびビデオセグメンテーションデータセットを導入することでデータセットを補完する。
そして,異なる特性を持つ3つのネットワークアーキテクチャを改善し,複数のネットワークを訓練し,映像中のオブジェクトの異なる特性を学習する。
その後、私たちは単純な方法ですべての結果を統合し、異なるモデルが相互に補完することを保証します。
最後に、正確な境界を持つ正確なビデオオブジェクトセグメンテーションを保証するために微妙な後処理を行う。
Youtube-VOSデータセットの大規模な実験は、提案されたソリューションが、YouTube-VOS 2022テストセットで86.1%のスコアで最先端のパフォーマンスを達成することを示している。
関連論文リスト
- 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - 1st Place Solution for 5th LSVOS Challenge: Referring Video Object
Segmentation [65.45702890457046]
主要なRVOSモデルの強みを統合して、効果的なパラダイムを構築します。
マスクの整合性と品質を改善するために,2段階のマルチモデル融合戦略を提案する。
第5回大規模ビデオオブジェクトチャレンジ(ICCV 2023)トラック3位にランクインしたRef-Youtube-VOS検証セットで75.7%,テストセットで70%のJ&Fを達成した。
論文 参考訳(メタデータ) (2024-01-01T04:24:48Z) - MOSE: A New Dataset for Video Object Segmentation in Complex Scenes [106.64327718262764]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオクリップシーケンス全体を通して特定のオブジェクトをセグメンテーションすることを目的としている。
最先端のVOSメソッドは、既存のデータセット上で優れたパフォーマンス(例えば、90%以上のJ&F)を達成した。
我々は、複雑な環境でのトラッキングとセグメンテーションを研究するために、coMplex video Object SEgmentation (MOSE)と呼ばれる新しいVOSデータセットを収集する。
論文 参考訳(メタデータ) (2023-02-03T17:20:03Z) - 1st Place Solution for YouTubeVOS Challenge 2022: Referring Video Object
Segmentation [12.100628128028385]
言語記述と強く相関するマス列を得るための1段法ReferFormerの改良を行った。
我々は,映像オブジェクト分割モデルの優れた性能を活用し,マスク結果の品質と時間的一貫性をさらに向上させる。
我々のシングルモデルは、Referring Youtube-VOS検証セットで70.3J&F、テストセットで63.0に達し、CVPR2022 Referring Youtube-VOSチャレンジで1位にランクインした。
論文 参考訳(メタデータ) (2022-12-27T09:22:45Z) - Breaking the "Object" in Video Object Segmentation [36.20167854011788]
変換(VOST)に基づくビデオオブジェクトのデータセットを提案する。
700以上の高解像度ビデオで構成され、さまざまな環境で撮影され、平均21秒の長さで、マスクのインスタンスで密にラベル付けされている。
これらのビデオは、複雑なオブジェクト変換に焦点を合わせ、その完全な時間的範囲を捉えるために、注意深いマルチステップのアプローチが採用されている。
本研究は,本課題に適用した場合の既存手法の問題点と,その主な限界が,静的な外観上の過度な信頼にあることを示す。
論文 参考訳(メタデータ) (2022-12-12T19:22:17Z) - Occluded Video Instance Segmentation: Dataset and ICCV 2021 Challenge [133.80567761430584]
我々はOVISと呼ばれる大規模データセットを収集し、隠されたシナリオでビデオインスタンスのセグメンテーションを行う。
OVISは296kの高品質のインスタンスマスクと901の隠蔽シーンで構成されている。
全てのベースライン法は、強吸収対象群で約80%の性能低下に遭遇する。
論文 参考訳(メタデータ) (2021-11-15T17:59:03Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Learning Video Object Segmentation from Unlabeled Videos [158.18207922363783]
未ラベルビデオからのオブジェクトパターン学習に対処するビデオオブジェクトセグメンテーション(VOS)を提案する。
複数の粒度で VOS の特性を包括的にキャプチャする,教師なし/弱教師付き学習フレームワーク MuG を導入している。
論文 参考訳(メタデータ) (2020-03-10T22:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。