論文の概要: CLVOS23: A Long Video Object Segmentation Dataset for Continual Learning
- arxiv url: http://arxiv.org/abs/2304.04259v1
- Date: Sun, 9 Apr 2023 15:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:42:34.108469
- Title: CLVOS23: A Long Video Object Segmentation Dataset for Continual Learning
- Title(参考訳): CLVOS23: 継続的な学習のための長いビデオオブジェクトセグメンテーションデータセット
- Authors: Amir Nazemi, Zeyad Moustafa, Paul Fieguth
- Abstract要約: 一般的な連続学習モデルは、メモリサイズが一定であり、事前に定義されたタスク境界を持たないべきである。
まず、連続学習問題として半教師付きビデオオブジェクト(VOS)の問題を定式化する。
次に、継続学習に焦点を当てたパブリックなVOSデータセットCLVOS23を提供する。
- 参考スコア(独自算出の注目度): 4.795530213347875
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning in real-world scenarios is a major challenge. A general
continual learning model should have a constant memory size and no predefined
task boundaries, as is the case in semi-supervised Video Object Segmentation
(VOS), where continual learning challenges particularly present themselves in
working on long video sequences. In this article, we first formulate the
problem of semi-supervised VOS, specifically online VOS, as a continual
learning problem, and then secondly provide a public VOS dataset, CLVOS23,
focusing on continual learning. Finally, we propose and implement a
regularization-based continual learning approach on LWL, an existing online VOS
baseline, to demonstrate the efficacy of continual learning when applied to
online VOS and to establish a CLVOS23 baseline. We apply the proposed baseline
to the Long Videos dataset as well as to two short video VOS datasets, DAVIS16
and DAVIS17. To the best of our knowledge, this is the first time that VOS has
been defined and addressed as a continual learning problem.
- Abstract(参考訳): 現実世界のシナリオにおける継続的学習は大きな課題です。
一般的な連続的な学習モデルは、連続的な学習課題が特に長いビデオシーケンスに取り組む際に現れる、半教師付きビデオオブジェクトセグメンテーション(VOS)のように、メモリサイズが一定であり、予め定義されたタスク境界を持たないべきである。
本稿では、まず、オンラインVOSを継続学習問題として半教師付きVOSの問題を定式化し、次に、継続学習に焦点を当てたパブリックVOSデータセットCLVOS23を提供する。
最後に,オンラインVOSに適用した場合の継続学習の有効性を実証し,CLVOS23ベースラインを確立するために,既存のオンラインVOSベースラインであるLWLに対して正規化に基づく継続学習アプローチを提案し,実装する。
提案するベースラインは,Long Videosデータセットと,DAVIS16とDAVIS17の2つの短いビデオVOSデータセットに適用する。
私たちの知る限りでは、VOSが継続的学習問題として定義され、対処されたのはこれが初めてです。
関連論文リスト
- One-shot Training for Video Object Segmentation [11.52321103793505]
Video Object(VOS)は、ビデオ内のフレームをまたいだオブジェクトを追跡し、ターゲットオブジェクトの初期アノテーション付きフレームに基づいてそれらをセグメンテーションすることを目的としている。
これまでのVOSの作業は、トレーニングのために完全に注釈付けされたビデオに頼っていた。
VOSのための一般的なワンショットトレーニングフレームワークを提案し、トレーニングビデオあたりのラベル付きフレームは1つしか必要としない。
論文 参考訳(メタデータ) (2024-05-22T21:37:08Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Occluded Video Instance Segmentation: Dataset and ICCV 2021 Challenge [133.80567761430584]
我々はOVISと呼ばれる大規模データセットを収集し、隠されたシナリオでビデオインスタンスのセグメンテーションを行う。
OVISは296kの高品質のインスタンスマスクと901の隠蔽シーンで構成されている。
全てのベースライン法は、強吸収対象群で約80%の性能低下に遭遇する。
論文 参考訳(メタデータ) (2021-11-15T17:59:03Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Learning Video Object Segmentation from Unlabeled Videos [158.18207922363783]
未ラベルビデオからのオブジェクトパターン学習に対処するビデオオブジェクトセグメンテーション(VOS)を提案する。
複数の粒度で VOS の特性を包括的にキャプチャする,教師なし/弱教師付き学習フレームワーク MuG を導入している。
論文 参考訳(メタデータ) (2020-03-10T22:12:15Z) - A Multi-view Perspective of Self-supervised Learning [24.14738533504335]
自己教師付き学習(SSL)は最近広く注目を集めており、通常は手動によるデータアノテーションを使わずにプレテキストタスクを導入している。
本稿では、一般的なプレテキストタスクのクラスをビューデータ拡張(VDA)とビューラベル分類(VLC)の組み合わせに分離するために、マルチビューの視点を借りる。
具体的には、単純なマルチビュー学習フレームワークを特別に設計し(SSL-MV)、拡張ビュー上の同じタスクを通して下流タスク(元ビュー)の機能学習を支援する。
論文 参考訳(メタデータ) (2020-02-22T13:26:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。