論文の概要: One-stage Video Instance Segmentation: From Frame-in Frame-out to
Clip-in Clip-out
- arxiv url: http://arxiv.org/abs/2203.06421v1
- Date: Sat, 12 Mar 2022 12:23:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:45:15.428630
- Title: One-stage Video Instance Segmentation: From Frame-in Frame-out to
Clip-in Clip-out
- Title(参考訳): ワンステージビデオインスタンスセグメンテーション:フレームインフレームアウトからクリップインクリップアウトへ
- Authors: Minghan Li and Lei Zhang
- Abstract要約: ビデオクリップの時間情報を利用するクリップインクリップアウト(CiCo)フレームワークを提案する。
CiCo戦略は条件付きフレームアライメントが不要で、既存のFiFoベースのVISアプローチに簡単に組み込むことができる。
2つの新しい1段VISモデルは37.7.3%、35.2/35.4%、17.2/1%のマスクAPを達成した。
- 参考スコア(独自算出の注目度): 15.082477136581153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many video instance segmentation (VIS) methods partition a video sequence
into individual frames to detect and segment objects frame by frame. However,
such a frame-in frame-out (FiFo) pipeline is ineffective to exploit the
temporal information. Based on the fact that adjacent frames in a short clip
are highly coherent in content, we propose to extend the one-stage FiFo
framework to a clip-in clip-out (CiCo) one, which performs VIS clip by clip.
Specifically, we stack FPN features of all frames in a short video clip to
build a spatio-temporal feature cube, and replace the 2D conv layers in the
prediction heads and the mask branch with 3D conv layers, forming clip-level
prediction heads (CPH) and clip-level mask heads (CMH). Then the clip-level
masks of an instance can be generated by feeding its box-level predictions from
CPH and clip-level features from CMH into a small fully convolutional network.
A clip-level segmentation loss is proposed to ensure that the generated
instance masks are temporally coherent in the clip. The proposed CiCo strategy
is free of inter-frame alignment, and can be easily embedded into existing FiFo
based VIS approaches. To validate the generality and effectiveness of our CiCo
strategy, we apply it to two representative FiFo methods, Yolact
\cite{bolya2019yolact} and CondInst \cite{tian2020conditional}, resulting in
two new one-stage VIS models, namely CiCo-Yolact and CiCo-CondInst, which
achieve 37.1/37.3\%, 35.2/35.4\% and 17.2/18.0\% mask AP using the ResNet50
backbone, and 41.8/41.4\%, 38.0/38.9\% and 18.0/18.2\% mask AP using the Swin
Transformer tiny backbone on YouTube-VIS 2019, 2021 and OVIS valid sets,
respectively, recording new state-of-the-arts. Code and video demos of CiCo can
be found at \url{https://github.com/MinghanLi/CiCo}.
- Abstract(参考訳): 多くのビデオインスタンスセグメンテーション(VIS)メソッドは、ビデオシーケンスを個々のフレームに分割し、フレームごとにオブジェクトを検出および分割する。
しかし、このようなフレームイン・フレームアウト(FiFo)パイプラインは時間情報の活用には効果がない。
ショートクリップ内の隣接フレームがコンテントに密接な関係にあるという事実に基づいて,一段階のFiFoフレームワークをクリップインクリップアウト(CiCo)に拡張し,クリップ単位でVISクリップを実行することを提案する。
具体的には、短いビデオクリップに全フレームのFPN機能を積み重ねて、時空間の特徴立方体を構築し、予測ヘッドとマスクブランチの2次元凸層を3次元凸層に置き換え、クリップレベルの予測ヘッド(CPH)とクリップレベルのマスクヘッド(CMH)を形成する。
次に、CPHからのボックスレベルの予測とCMHからのクリップレベルの特徴を小さな完全な畳み込みネットワークに入力することで、インスタンスのクリップレベルのマスクを生成することができる。
生成したインスタンスマスクがクリップ内で時間的にコヒーレントであることを保証するために,クリップレベルのセグメンテーション損失を提案する。
提案されたcisco戦略はフレーム間のアライメントがなく、既存のfifoベースのvisアプローチに簡単に組み込むことができる。
To validate the generality and effectiveness of our CiCo strategy, we apply it to two representative FiFo methods, Yolact \cite{bolya2019yolact} and CondInst \cite{tian2020conditional}, resulting in two new one-stage VIS models, namely CiCo-Yolact and CiCo-CondInst, which achieve 37.1/37.3\%, 35.2/35.4\% and 17.2/18.0\% mask AP using the ResNet50 backbone, and 41.8/41.4\%, 38.0/38.9\% and 18.0/18.2\% mask AP using the Swin Transformer tiny backbone on YouTube-VIS 2019, 2021 and OVIS valid sets, respectively, recording new state-of-the-arts.
CiCoのコードとビデオのデモは \url{https://github.com/MinghanLi/CiCo} で見ることができる。
関連論文リスト
- CLIP-VIS: Adapting CLIP for Open-Vocabulary Video Instance Segmentation [44.450243388665776]
我々はCLIP-VISと呼ばれる単純なエンコーダデコーダネットワークを提案し、CLIPをオープン語彙ビデオインスタンスセグメンテーションに適用する。
私たちのCLIP-VISは、凍結したCLIPを採用し、クラスに依存しないマスク生成、時間的トップK強調マッチング、重み付きオープン語彙分類を含む3つのモジュールを導入している。
論文 参考訳(メタデータ) (2024-03-19T05:27:04Z) - Mask Propagation for Efficient Video Semantic Segmentation [63.09523058489429]
ビデオセマンティックベースライン劣化(VSS)は、ビデオシーケンス内の各ピクセルにセマンティックラベルを割り当てることを含む。
SSSSと呼ばれるVSSのための効率的なマスク伝搬フレームワークを提案する。
当社のフレームワークは,フレーム単位のMask2Formerと比較して最大4倍のFLOPを削減し,Cityscapes検証セット上では最大2% mIoUしか使用できない。
論文 参考訳(メタデータ) (2023-10-29T09:55:28Z) - Multi-grained Temporal Prototype Learning for Few-shot Video Object
Segmentation [156.4142424784322]
FSVOS(Few-Shot Video Object)は、いくつかのアノテーション付きサポートイメージで定義されるのと同じカテゴリで、クエリビデオ内のオブジェクトをセグメントすることを目的としている。
本稿では,ビデオデータの時間的相関性を扱うために,多粒度時間的ガイダンス情報を活用することを提案する。
提案するビデオIPMTモデルは,2つのベンチマークデータセットにおいて,従来のモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-09-20T09:16:34Z) - Video-kMaX: A Simple Unified Approach for Online and Near-Online Video
Panoptic Segmentation [104.27219170531059]
ビデオパノプティクス(VPS)は、すべてのピクセルをセグメント化し、ビデオ内のオブジェクトを関連付けることで、包括的なピクセルレベルのシーン理解を実現することを目的としている。
現在のソリューションは、オンラインおよびほぼオンラインのアプローチに分類することができる。
オンラインおよびほぼオンラインのVPSに対して統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-10T16:17:25Z) - Per-Clip Video Object Segmentation [110.08925274049409]
近年、メモリベースの手法は、半教師付きビデオオブジェクトセグメンテーションにおいて有望な結果を示している。
映像オブジェクトのセグメンテーションをクリップワイドマスクワイド伝搬として扱う。
本稿では,Clip毎の推論に適した新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T09:02:29Z) - OCSampler: Compressing Videos to One Clip with Single-step Sampling [82.0417131211353]
本稿では,OCSampler というフレームワークを提案する。
我々の基本的な動機は、効率的なビデオ認識タスクは、フレームをシーケンシャルに拾うのではなく、シーケンス全体を一度に処理することにある。
論文 参考訳(メタデータ) (2022-01-12T09:50:38Z) - Spatial Feature Calibration and Temporal Fusion for Effective One-stage
Video Instance Segmentation [16.692219644392253]
本稿では,空間キャリブレーションと時間融合による一段階ビデオインスタンスセグメンテーションフレームワークであるstmaskを提案する。
YouTube-VIS検証セットの実験では、提案されたSTMaskとResNet-50/-101のバックボーンが33.5 %/36.8 %のマスクAPを取得し、ビデオインスタンスセグメンテーションでは28.6 / 23.4 FPSを達成した。
論文 参考訳(メタデータ) (2021-04-06T09:26:58Z) - Video Instance Segmentation with a Propose-Reduce Paradigm [68.59137660342326]
ビデオインスタンスセグメンテーション(VIS)は、ビデオ内の各フレームごとに定義されたクラスのすべてのインスタンスをセグメンテーションし、関連付けることを目的とする。
先行メソッドは通常、フレームまたはクリップのセグメンテーションを最初に取得し、追跡またはマッチングによって不完全な結果をマージします。
新しいパラダイムであるPropose-Reduceを提案し、入力ビデオの完全なシーケンスを1ステップで生成します。
論文 参考訳(メタデータ) (2021-03-25T10:58:36Z) - GCF-Net: Gated Clip Fusion Network for Video Action Recognition [11.945392734711056]
本稿では,映像行動認識のためのGated Clip Fusion Network(GCF-Net)を紹介する。
GCF-Netは、ローカルクリップ記述子の受容領域を強化するために、ビデオクリップ間の依存性を明示的にモデル化する。
大規模なベンチマークデータセット(Kinetics-600)では、提案されたGCF-Netは既存のアクション分類器の精度を11.49%向上させる。
論文 参考訳(メタデータ) (2021-02-02T03:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。