論文の概要: vCLIMB: A Novel Video Class Incremental Learning Benchmark
- arxiv url: http://arxiv.org/abs/2201.09381v1
- Date: Sun, 23 Jan 2022 22:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 07:01:25.962483
- Title: vCLIMB: A Novel Video Class Incremental Learning Benchmark
- Title(参考訳): vclimb: 新しいビデオクラスインクリメンタル学習ベンチマーク
- Authors: Andr\'es Villa, Kumail Alhamoud, Juan Le\'on Alc\'azar, Fabian Caba
Heilbron, Victor Escorcia and Bernard Ghanem
- Abstract要約: 本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
- 参考スコア(独自算出の注目度): 53.90485760679411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning (CL) is under-explored in the video domain. The few
existing works contain splits with imbalanced class distributions over the
tasks, or study the problem in unsuitable datasets. We introduce vCLIMB, a
novel video continual learning benchmark. vCLIMB is a standardized test-bed to
analyze catastrophic forgetting of deep models in video continual learning. In
contrast to previous work, we focus on class incremental continual learning
with models trained on a sequence of disjoint tasks, and distribute the number
of classes uniformly across the tasks. We perform in-depth evaluations of
existing CL methods in vCLIMB, and observe two unique challenges in video data.
The selection of instances to store in episodic memory is performed at the
frame level. Second, untrimmed training data influences the effectiveness of
frame sampling strategies. We address these two challenges by proposing a
temporal consistency regularization that can be applied on top of memory-based
continual learning methods. Our approach significantly improves the baseline,
by up to 24% on the untrimmed continual learning task. To streamline and foster
future research in video continual learning, we will publicly release the code
for our benchmark and method.
- Abstract(参考訳): 連続学習(CL)はビデオ領域では未探索である。
現存する数少ない研究は、タスク上の不均衡なクラス分布を持つ分割を含むか、不適切なデータセットで問題を研究している。
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
従来の研究とは対照的に,不連続なタスクの列で訓練されたモデルを用いた逐次的連続学習に焦点を合わせ,タスク間でクラス数を均一に分配する。
我々は,vCLIMBにおける既存のCL手法の詳細な評価を行い,ビデオデータにおける2つのユニークな課題を観察する。
エピソードメモリに格納するインスタンスの選択は、フレームレベルで行われる。
第2に,非トリミングトレーニングデータは,フレームサンプリング戦略の有効性に影響を与える。
本稿では,この2つの課題に,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
我々のアプローチはベースラインを大幅に改善し、未解決の連続学習タスクを最大24%改善する。
ビデオ連続学習における今後の研究の合理化と促進のために,我々のベンチマークとメソッドのコードを公開する。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - A Comprehensive Empirical Evaluation on Online Continual Learning [20.39495058720296]
オンライン連続学習に取り組む文献から手法を評価する。
画像分類の文脈におけるクラスインクリメンタル設定に焦点をあてる。
これらの手法をSplit-CIFAR100とSplit-TinyImagenetベンチマークで比較する。
論文 参考訳(メタデータ) (2023-08-20T17:52:02Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Learning to Prompt for Continual Learning [34.609384246149325]
本研究は,テスト時にタスクの同一性にアクセスすることなく,より簡潔なメモリシステムのトレーニングを目的とした,連続学習のための新しいパラダイムを提案する。
本手法は,タスク遷移の異なるタスクを逐次学習するための事前学習モデル(L2P)を動的に学習する。
目的は、モデル予測を指示するプロンプトを最適化し、モデル可塑性を維持しながら、タスク不変およびタスク固有知識を明示的に管理することである。
論文 参考訳(メタデータ) (2021-12-16T06:17:07Z) - When Video Classification Meets Incremental Classes [12.322018693269952]
本稿では,忘れを忘れるテキスト触媒の課題に対処する枠組みを提案する。
まず, 蒸留前の粒度・時間的知識を緩和する。
第2に,古いクラスとキーフレームの代表的なビデオインスタンスを,厳密なストレージ予算の下で選択・保存する,二重例選択手法を提案する。
論文 参考訳(メタデータ) (2021-06-30T06:12:33Z) - Knowledge Consolidation based Class Incremental Online Learning with
Limited Data [41.87919913719975]
本稿では,限定的なデータ環境下での授業段階的なオンライン学習のための新しい手法を提案する。
我々は、破滅的な忘れ込みと過度な適合の問題に悩まされることなく、タスク間で一般化可能な堅牢な表現を学習する。
論文 参考訳(メタデータ) (2021-06-12T15:18:29Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。