論文の概要: Teacher Agent: A Non-Knowledge Distillation Method for Rehearsal-based
Video Incremental Learning
- arxiv url: http://arxiv.org/abs/2306.00393v1
- Date: Thu, 1 Jun 2023 06:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 17:50:35.221332
- Title: Teacher Agent: A Non-Knowledge Distillation Method for Rehearsal-based
Video Incremental Learning
- Title(参考訳): 教師エージェント:リハーサルビデオインクリメンタル学習のための非知識蒸留法
- Authors: Shengqin Jiang, Yaoyu Fang, Haokui Zhang, Peng Wang, Yuankai Qi,
Qingshan Liu
- Abstract要約: 教師モデルの出力を置き換えるために,安定かつ正確なソフトラベルを生成することができる教師エージェントを提案する。
本手法は, エピソード記憶におけるサンプル数を4倍にすると, 関節訓練の成績を上回ります。
- 参考スコア(独自算出の注目度): 32.968899711695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise in popularity of video-based social media, new categories of
videos are constantly being generated, creating an urgent need for robust
incremental learning techniques for video understanding. One of the biggest
challenges in this task is catastrophic forgetting, where the network tends to
forget previously learned data while learning new categories. To overcome this
issue, knowledge distillation is a widely used technique for rehearsal-based
video incremental learning that involves transferring important information on
similarities among different categories to enhance the student model.
Therefore, it is preferable to have a strong teacher model to guide the
students. However, the limited performance of the network itself and the
occurrence of catastrophic forgetting can result in the teacher network making
inaccurate predictions for some memory exemplars, ultimately limiting the
student network's performance. Based on these observations, we propose a
teacher agent capable of generating stable and accurate soft labels to replace
the output of the teacher model. This method circumvents the problem of
knowledge misleading caused by inaccurate predictions of the teacher model and
avoids the computational overhead of loading the teacher model for knowledge
distillation. Extensive experiments demonstrate the advantages of our method,
yielding significant performance improvements while utilizing only half the
resolution of video clips in the incremental phases as input compared to recent
state-of-the-art methods. Moreover, our method surpasses the performance of
joint training when employing four times the number of samples in episodic
memory.
- Abstract(参考訳): ビデオベースのソーシャルメディアの普及に伴い、ビデオの新しいカテゴリが常に生成され、ビデオ理解のための堅牢な漸進的学習技術が緊急に必要になる。
このタスクの最大の課題の1つは、ネットワークが新しいカテゴリを学習しながら学習したデータを忘れがちな破滅的な忘れ方だ。
この問題を解決するために、知識蒸留は、様々なカテゴリ間の類似点に関する重要な情報を伝達して学生モデルを強化するリハーサルベースのビデオインクリメンタルラーニングにおいて広く用いられている技術である。
したがって、生徒を指導する強力な教師モデルを持つことが望ましい。
しかし、ネットワーク自体の性能が制限され、壊滅的な記憶喪失が発生すると、教師ネットワークは一部の記憶例に対して不正確な予測を行い、最終的に学生ネットワークのパフォーマンスを制限できる。
そこで,本研究では,教師モデルの出力に代えて,安定かつ正確なソフトラベルを生成できる教師エージェントを提案する。
本手法は,教師モデルの不正確な予測による知識誤解の問題を回避し,教師モデルの知識蒸留負荷の計算オーバーヘッドを回避する。
提案手法の利点を実証し,近年の最先端手法と比較して,インクリメンタルフェーズにおけるビデオクリップの解像度を半分に抑えながら,大幅な性能向上を実現した。
さらに, 本手法は, エピソード記憶におけるサンプル数を4倍にすると, 関節訓練の成績を上回る。
関連論文リスト
- Reducing Catastrophic Forgetting in Online Class Incremental Learning Using Self-Distillation [3.8506666685467343]
連続学習では、モデルが新しいタスクを学ぶと、以前の知識は忘れられる。
本稿では, 自己蒸留による伝達可能な知識の獲得により, この問題の解決を試みた。
提案手法は,CIFAR10,CIFAR100,MinimageNetデータセットを用いた実験により従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T16:26:33Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - The Staged Knowledge Distillation in Video Classification: Harmonizing
Student Progress by a Complementary Weakly Supervised Framework [21.494759678807686]
ビデオ分類における知識蒸留のための弱教師付き学習フレームワークを提案する。
本手法は,サブステージ学習の概念を利用して,学生のサブステージの組み合わせと,それに対応するサブステージの相関に基づく知識を抽出する。
提案手法は,ビデオデータに対するラベル効率学習の今後の研究の可能性を秘めている。
論文 参考訳(メタデータ) (2023-07-11T12:10:42Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Contrastive Losses Are Natural Criteria for Unsupervised Video
Summarization [27.312423653997087]
ビデオの要約は、ビデオ内の最も情報に富むサブセットを選択して、効率的なビデオブラウジングを容易にすることを目的としている。
本稿では,局所的な相似性,グローバルな一貫性,一意性という,望ましいキーフレームを特徴とする3つの指標を提案する。
本研究は,事前学習した特徴を軽量なプロジェクションモジュールで洗練することにより,フレームレベルの重要度をさらに向上できることを示す。
論文 参考訳(メタデータ) (2022-11-18T07:01:28Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Representation Memorization for Fast Learning New Knowledge without
Forgetting [36.55736909586313]
新しい知識を素早く学習する能力は、人間レベルの知性への大きな一歩だ。
新しいクラスやデータ配布を迅速かつ漸進的に学ぶ必要があるシナリオを考えます。
本稿では,2つの課題に対処するため,メモリベースのヘビアン適応を提案する。
論文 参考訳(メタデータ) (2021-08-28T07:54:53Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - IB-DRR: Incremental Learning with Information-Back Discrete
Representation Replay [4.8666876477091865]
インクリメンタルラーニングは、機械学習モデルが新しいクラスから新しい知識を継続的に取得できるようにすることを目的としている。
以前に見たクラスのトレーニングサンプルのサブセットをメモリに保存し、新しいトレーニングフェーズ中に再生することは、この目標を達成するために効率的で効果的な方法であることが証明されています。
しかし、モデルパフォーマンスと各クラスに保存するサンプル数とのトレードオフを見つけることは、リプレイベースの漸進学習では依然として未解決の問題である。
論文 参考訳(メタデータ) (2021-04-21T15:32:11Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。