論文の概要: CRVOS: Clue Refining Network for Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2002.03651v4
- Date: Tue, 2 Jun 2020 08:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:57:12.477183
- Title: CRVOS: Clue Refining Network for Video Object Segmentation
- Title(参考訳): CRVOS:ビデオオブジェクトセグメンテーションのためのクローズリファイリングネットワーク
- Authors: Suhwan Cho, MyeongAh Cho, Tae-young Chung, Heansung Lee, Sangyoun Lee
- Abstract要約: 我々は,これらのシナリオを効率的に処理する中間ネットワークを持たないリアルタイム・ネットワーク,Clue Network for Video Object Refining (CRVOS)を提案する。
提案手法は競合精度の高い既存手法の中で最速のfps速度を示す。
DAVIS 2016では63.5fps、J&Fスコア81.6%を達成した。
- 参考スコア(独自算出の注目度): 5.947279761429668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The encoder-decoder based methods for semi-supervised video object
segmentation (Semi-VOS) have received extensive attention due to their superior
performances. However, most of them have complex intermediate networks which
generate strong specifiers to be robust against challenging scenarios, and this
is quite inefficient when dealing with relatively simple scenarios. To solve
this problem, we propose a real-time network, Clue Refining Network for Video
Object Segmentation (CRVOS), that does not have any intermediate network to
efficiently deal with these scenarios. In this work, we propose a simple
specifier, referred to as the Clue, which consists of the previous frame's
coarse mask and coordinates information. We also propose a novel refine module
which shows the better performance compared with the general ones by using a
deconvolution layer instead of a bilinear upsampling layer. Our proposed method
shows the fastest speed among the existing methods with a competitive accuracy.
On DAVIS 2016 validation set, our method achieves 63.5 fps and J&F score of
81.6%.
- Abstract(参考訳): 半教師付きビデオオブジェクトセグメンテーション(Semi-VOS)のためのエンコーダデコーダに基づく手法は、その優れた性能のために広く注目を集めている。
しかし、それらの多くは複雑な中間ネットワークを持ち、挑戦的なシナリオに対して堅牢な強力な仕様化子を生成する。
そこで本研究では,これらのシナリオを効率的に処理する中間ネットワークを持たないリアルタイム・ネットワークCRVOS(Clue Refining Network for Video Object Segmentation)を提案する。
本研究では,従来のフレームの粗いマスクと座標情報からなる簡単な識別器であるClueを提案する。
また,両線形アップサンプリング層の代わりにデコンボリューション層を用いることにより,一般的なモジュールに比べて優れた性能を示す新しいモジュールを提案する。
提案手法は競合精度の高い既存手法の中で最速の速度を示す。
DAVIS 2016では63.5fps,J&Fスコア81.6%を達成した。
関連論文リスト
- Space-time Reinforcement Network for Video Object Segmentation [16.67780344875854]
ビデオオブジェクトセグメンテーション(VOS)ネットワークは通常、メモリベースの手法を使用する。
これらの手法は,1) 隣接するビデオフレーム間の空間的コヒーレンスをデータの整合によって破壊し,2) 画素レベルのマッチングが望ましくないミスマッチを引き起こすという2つの問題に悩まされる。
本稿では,隣接フレーム間の補助フレームを生成することを提案し,クエリの暗黙的短時間参照として機能する。
論文 参考訳(メタデータ) (2024-05-07T06:26:30Z) - 1st Place Solution for 5th LSVOS Challenge: Referring Video Object
Segmentation [65.45702890457046]
主要なRVOSモデルの強みを統合して、効果的なパラダイムを構築します。
マスクの整合性と品質を改善するために,2段階のマルチモデル融合戦略を提案する。
第5回大規模ビデオオブジェクトチャレンジ(ICCV 2023)トラック3位にランクインしたRef-Youtube-VOS検証セットで75.7%,テストセットで70%のJ&Fを達成した。
論文 参考訳(メタデータ) (2024-01-01T04:24:48Z) - Cross-CBAM: A Lightweight network for Scene Segmentation [2.064612766965483]
リアルタイムセマンティックセグメンテーションのための新しい軽量ネットワークであるCross-CBAMネットワークを提案する。
CityscapesデータセットとCamvidデータセットの実験では、73.4% mIoU、240.9FPS、77.2% mIoU、NVIDIA GTX 1080Tiで88.6FPSを達成した。
論文 参考訳(メタデータ) (2023-06-04T09:03:05Z) - Deep Unsupervised Key Frame Extraction for Efficient Video
Classification [63.25852915237032]
本研究は、畳み込みニューラルネットワーク(CNN)と時間セグメント密度ピーククラスタリング(TSDPC)を組み合わせたキーフレームの検索方法を提案する。
提案した TSDPC は汎用的で強力なフレームワークであり,従来の研究に比べて2つの利点がある。
さらに、CNNの上部にLong Short-Term Memory Network (LSTM)を追加し、分類性能をさらに高める。
論文 参考訳(メタデータ) (2022-11-12T20:45:35Z) - Stage-Aware Feature Alignment Network for Real-Time Semantic
Segmentation of Street Scenes [59.81228011432776]
街路シーンのリアルタイムなセマンティックセグメンテーションのためのSFANet(Stage-Aware Feature Alignment Network)を提案する。
デコーダにおける各ステージのユニークな役割を考慮に入れ、新しいステージ認識機能拡張ブロック(FEB)は、エンコーダからの特徴マップの空間的詳細と文脈的情報を強化するように設計されている。
実験の結果,提案したSFANetは,ストリートシーンのリアルタイムセマンティックセグメンテーションにおける精度と速度のバランスが良好であることがわかった。
論文 参考訳(メタデータ) (2022-03-08T11:46:41Z) - Adaptive Focus for Efficient Video Recognition [29.615394426035074]
効率的な空間適応映像認識(AdaFocus)のための強化学習手法を提案する。
タスク関連領域をローカライズするために、リカレントポリシーネットワークによって使用されるフルビデオシーケンスを迅速に処理するために、軽量のConvNetが最初に採用された。
オフライン推論の間、情報パッチシーケンスが生成されると、計算の大部分を並列に行うことができ、現代のGPUデバイスで効率的である。
論文 参考訳(メタデータ) (2021-05-07T13:24:47Z) - Rethinking BiSeNet For Real-time Semantic Segmentation [6.622485130017622]
BiSeNetはリアルタイムセグメンテーションのための人気のある2ストリームネットワークであることが証明されている。
本稿では,stdc( short-term dense concatenate network)と呼ばれる新しい構造を提案する。
論文 参考訳(メタデータ) (2021-04-27T13:49:47Z) - Learning Dynamic Network Using a Reuse Gate Function in Semi-supervised
Video Object Segmentation [27.559093073097483]
セミ監視ビデオオブジェクト(Semi-VOS)の現在のアプローチは、以前のフレームから情報を伝達し、現在のフレームのセグメンテーションマスクを生成します。
時間的情報を用いて、最小限の変更で迅速にフレームを識別する。
フレーム間の変化を推定し、ネットワーク全体を計算したり、以前のフレームの機能を再利用したりするパスを決定する、新しい動的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-21T19:40:17Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z) - Efficient Video Semantic Segmentation with Labels Propagation and
Refinement [138.55845680523908]
本稿では,ハイブリッドGPU/CPUを用いた高精細ビデオのリアルタイムセマンティックセマンティックセマンティック化の問題に取り組む。
i) CPU上では、非常に高速な光フロー法であり、ビデオの時間的側面を利用して、あるフレームから次のフレームへ意味情報を伝達するために使用される。
高解像度フレーム(2048 x 1024)を持つ一般的なCityscapesデータセットでは、単一のGPUとCPU上で80から1000Hzの動作ポイントが提案されている。
論文 参考訳(メタデータ) (2019-12-26T11:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。