論文の概要: Fast Video Object Segmentation using the Global Context Module
- arxiv url: http://arxiv.org/abs/2001.11243v2
- Date: Sat, 18 Jul 2020 01:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:20:04.049934
- Title: Fast Video Object Segmentation using the Global Context Module
- Title(参考訳): Global Context Module を用いた高速ビデオオブジェクト分割
- Authors: Yu Li (1), Zhuoran Shen (2), Ying Shan (1) ((1) Tencent PCG Applied
Research Center, (2) The University of Hong Kong)
- Abstract要約: 本モデルは,標準ベンチマークの最高性能をリアルタイムに達成する。
我々は,映像全体を通して情報を要約し,伝達する,新しいグローバルなコンテキストモジュールを開発した。
時間的位置ごとにメモリをキャッシュする以前の最先端の時空間メモリネットワークとは異なり、グローバルコンテキストモジュールは固定サイズ表現を使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We developed a real-time, high-quality semi-supervised video object
segmentation algorithm. Its accuracy is on par with the most accurate,
time-consuming online-learning model, while its speed is similar to the fastest
template-matching method with sub-optimal accuracy. The core component of the
model is a novel global context module that effectively summarizes and
propagates information through the entire video. Compared to previous
approaches that only use one frame or a few frames to guide the segmentation of
the current frame, the global context module uses all past frames. Unlike the
previous state-of-the-art space-time memory network that caches a memory at
each spatio-temporal position, the global context module uses a fixed-size
feature representation. Therefore, it uses constant memory regardless of the
video length and costs substantially less memory and computation. With the
novel module, our model achieves top performance on standard benchmarks at a
real-time speed.
- Abstract(参考訳): リアルタイムで高品質な半教師付きビデオオブジェクト分割アルゴリズムを開発した。
その正確さは、最も正確で時間を要するオンライン学習モデルに匹敵するが、その速度は、最も速いテンプレートマッチングメソッドと同等であり、最適精度を満たしている。
モデルのコアコンポーネントは、ビデオ全体を通して情報を効果的に要約し、伝達する、新しいグローバルなコンテキストモジュールである。
現在のフレームのセグメンテーションを導くために1フレームまたは数フレームのみを使用する以前のアプローチと比較すると、グローバルコンテキストモジュールは過去のフレームをすべて使用する。
時空間の各位置にメモリをキャッシュする以前の最先端の時空メモリネットワークとは異なり、グローバルコンテキストモジュールは固定サイズの特徴表現を使用する。
したがって、ビデオ長にかかわらず一定のメモリを使用し、メモリや計算コストを大幅に削減する。
新モジュールにより,本モデルは,標準ベンチマークにおける最高性能をリアルタイムに達成する。
関連論文リスト
- A Simple Recipe for Contrastively Pre-training Video-First Encoders
Beyond 16 Frames [54.90226700939778]
我々は,大規模な画像テキストモデルを浅部時間融合によりビデオに転送する共通パラダイムを構築した。
1)標準ビデオデータセットにおけるビデオ言語アライメントの低下による空間能力の低下と,(2)処理可能なフレーム数のボトルネックとなるメモリ消費の増大である。
論文 参考訳(メタデータ) (2023-12-12T16:10:19Z) - Per-Clip Video Object Segmentation [110.08925274049409]
近年、メモリベースの手法は、半教師付きビデオオブジェクトセグメンテーションにおいて有望な結果を示している。
映像オブジェクトのセグメンテーションをクリップワイドマスクワイド伝搬として扱う。
本稿では,Clip毎の推論に適した新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T09:02:29Z) - Learning Quality-aware Dynamic Memory for Video Object Segmentation [32.06309833058726]
本稿では,各フレームのセグメンテーション品質を評価するために,QDMN(Quality-Aware Dynamic Memory Network)を提案する。
我々のQDMNは、DAVISとYouTube-VOSベンチマークの両方で最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-07-16T12:18:04Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Local Memory Attention for Fast Video Semantic Segmentation [157.7618884769969]
既存の単一フレームセマンティックセグメンテーションモデルをビデオセマンティックセグメンテーションパイプラインに変換する新しいニューラルネットワークモジュールを提案する。
我々のアプローチは過去のフレームにおける意味情報の豊富な表現をメモリモジュールに集約する。
都市景観におけるセグメンテーション性能は,それぞれ1.7%,2.1%改善し,erfnetの推論時間は1.5msに抑えられた。
論文 参考訳(メタデータ) (2021-01-05T18:57:09Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。