論文の概要: Towards Class-incremental Object Detection with Nearest Mean of
Exemplars
- arxiv url: http://arxiv.org/abs/2008.08336v3
- Date: Fri, 9 Oct 2020 07:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 11:59:24.806068
- Title: Towards Class-incremental Object Detection with Nearest Mean of
Exemplars
- Title(参考訳): exemplar の最も近い平均を用いたクラスインクリメンタルオブジェクト検出に向けて
- Authors: Sheng Ren, Yan He, Neal N. Xiong and Kehua Guo
- Abstract要約: インクリメンタルラーニングは、ディープラーニングモデルのパラメータや構造を変更して、モデルが新しい知識を学習しながら古い知識を忘れないようにする。
本稿では,プロトタイプベクトルを同定し,ベクトルの距離を増大させることによりモデルのパラメータを調整するインクリメンタル手法を提案する。
- 参考スコア(独自算出の注目度): 5.546052390414686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental learning is a form of online learning. Incremental learning can
modify the parameters and structure of the deep learning model so that the
model does not forget the old knowledge while learning new knowledge.
Preventing catastrophic forgetting is the most important task of incremental
learning. However, the current incremental learning is often only for one type
of input. For example, if the input images are of the same type, the current
incremental model can learn new knowledge while not forgetting old knowledge.
However, if several categories are added to the input graphics, the current
model will not be able to deal with it correctly, and the accuracy will drop
significantly. Therefore, this paper proposes a kind of incremental method,
which adjusts the parameters of the model by identifying the prototype vector
and increasing the distance of the vector, so that the model can learn new
knowledge without catastrophic forgetting. Experiments show the effectiveness
of our proposed method.
- Abstract(参考訳): インクリメンタル学習はオンライン学習の一形態である。
増分学習は深層学習モデルのパラメータや構造を変更し、新しい知識を学習しながら古い知識を忘れないようにすることができる。
破滅的な忘れ方を防ぐことは、インクリメンタル学習の最も重要なタスクです。
しかし、現在の漸進的な学習は1種類の入力に限られることが多い。
例えば、入力画像が同じタイプであれば、現在のインクリメンタルモデルは古い知識を忘れずに新しい知識を学習することができる。
しかし、入力グラフィックにいくつかのカテゴリが追加された場合、現在のモデルは正しく処理できず、精度は大幅に低下する。
そこで本研究では,プロトタイプベクトルを同定し,ベクトル距離を増大させることでモデルのパラメータを段階的に調整し,破滅的な忘れをせずに新たな知識を学習する手法を提案する。
提案手法の有効性を示す実験を行った。
関連論文リスト
- Learning Causal Features for Incremental Object Detection [12.255977992587596]
より多くのタスクに適応できる因果的特徴を学習し、段階的因果的対象検出(ICOD)モデルを提案する。
我々のICODは、検出器を訓練する際のデータバイアスの特徴ではなく、因果的特徴を学習するために導入されている。
論文 参考訳(メタデータ) (2024-03-01T15:14:43Z) - Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Class Incremental Learning with Self-Supervised Pre-Training and
Prototype Learning [21.901331484173944]
授業の段階的学習における破滅的忘れの原因を分析した。
固定エンコーダと漸進的に更新されたプロトタイプ分類器を備えた2段階学習フレームワークを提案する。
本手法は古いクラスを保存したサンプルに頼らず,非例ベースのCIL法である。
論文 参考訳(メタデータ) (2023-08-04T14:20:42Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Remind of the Past: Incremental Learning with Analogical Prompts [30.333352182303038]
即時チューニングにより,新しいデータを古いクラスに再マップするアナロジー生成機構を設計する。
これは、新しいクラスのサンプルのみを使用して、古いモデルのターゲットの古いクラスのフィーチャ分布を模倣する。
学習プロンプトは、歴史的プロトタイプの微調整による表現シフトを推定し、対処するためにさらに使用される。
論文 参考訳(メタデータ) (2023-03-24T10:18:28Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。