論文の概要: RECALL: Rehearsal-free Continual Learning for Object Classification
- arxiv url: http://arxiv.org/abs/2209.14774v1
- Date: Thu, 29 Sep 2022 13:36:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 16:18:57.391623
- Title: RECALL: Rehearsal-free Continual Learning for Object Classification
- Title(参考訳): RECALL: オブジェクト分類のためのリハーサルなし連続学習
- Authors: Markus Knauer, Maximilian Denninger and Rudolph Triebel
- Abstract要約: 畳み込みニューラルネットワークは、分類において顕著な結果を示すが、同時に新しいことを学ぶのに苦労する。
我々は、ディープニューラルネットワークが新しい未知のオブジェクトカテゴリを継続的に学習する、新しいリハーサルのないアプローチを提案する。
我々のアプローチはRECALLと呼ばれ、ネットワークは新しいカテゴリをトレーニングする前に古いカテゴリのロジットを計算することでカテゴリをリコールする。
- 参考スコア(独自算出の注目度): 24.260824374268314
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional neural networks show remarkable results in classification but
struggle with learning new things on the fly. We present a novel rehearsal-free
approach, where a deep neural network is continually learning new unseen object
categories without saving any data of prior sequences. Our approach is called
RECALL, as the network recalls categories by calculating logits for old
categories before training new ones. These are then used during training to
avoid changing the old categories. For each new sequence, a new head is added
to accommodate the new categories. To mitigate forgetting, we present a
regularization strategy where we replace the classification with a regression.
Moreover, for the known categories, we propose a Mahalanobis loss that includes
the variances to account for the changing densities between known and unknown
categories. Finally, we present a novel dataset for continual learning,
especially suited for object recognition on a mobile robot (HOWS-CL-25),
including 150,795 synthetic images of 25 household object categories. Our
approach RECALL outperforms the current state of the art on CORe50 and
iCIFAR-100 and reaches the best performance on HOWS-CL-25.
- Abstract(参考訳): 畳み込みニューラルネットワークは、分類において顕著な結果を示すが、同時に新しいことを学ぶのに苦労する。
本稿では,ディープニューラルネットワークが未発見のオブジェクトカテゴリを継続的に学習し,事前シーケンスのデータを保存することなくリハーサルフリーなアプローチを提案する。
ネットワークは、新しいカテゴリをトレーニングする前に、古いカテゴリのロジットを計算することでカテゴリをリコールする。
これらはトレーニング中に古いカテゴリの変更を避けるために使用される。
新しいシーケンスごとに、新しいカテゴリに対応するために新しいヘッドが追加される。
忘れを緩和するために,分類を回帰に置き換える正規化戦略を提案する。
さらに,既知のカテゴリについて,未知のカテゴリと未知のカテゴリの密度変化を考慮したばらつきを含むマハラノビス損失を提案する。
最後に,25種類の対象カテゴリの合成画像を含む移動ロボット(hows-cl-25)の物体認識に適した,連続学習のための新しいデータセットを提案する。
われわれのアプローチRECALLはCORe50とiCIFAR-100で現在よりも優れており,HOWS-CL-25で最高の性能を発揮する。
関連論文リスト
- NC-NCD: Novel Class Discovery for Node Classification [28.308556235456766]
クラスディスカバリ(NCD)は、以前に確立されたカテゴリから取得した知識を活用することにより、ラベルなしデータ内の新しいカテゴリを識別する。
既存のNCD手法は、古いカテゴリと新しいカテゴリのパフォーマンスのバランスを維持するのに苦労することが多い。
ノード分類のためのより実用的なNCDシナリオ(NC-NCD)を初めて紹介する。
提案する自己学習フレームワークは, SWORDと呼ばれ, NC-NCD設定に採用されている。
論文 参考訳(メタデータ) (2024-07-25T07:10:08Z) - CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Fixed Random Classifier Rearrangement for Continual Learning [0.5439020425819]
視覚分類のシナリオでは、ニューラルネットワークは新しいタスクを学習した後、必然的に古いタスクの知識を忘れる。
我々はFixed Random Rearrangement (FRCR)という連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-23T09:43:58Z) - Category Adaptation Meets Projected Distillation in Generalized Continual Category Discovery [0.9349784561232036]
Generalized Continual Category Discovery (GCCD)は、シーケンシャルに到着し、部分的にラベル付けされたデータセットから学ぶことに取り組む。
本稿では,学習可能なプロジェクタと特徴蒸留を統合し,過去の知識を犠牲にすることなくモデル適応性を向上する手法を提案する。
それぞれのコンポーネントが個別に穏やかなメリットを提供する一方で、その組み合わせであるCAMPは、新しい情報学習と古い情報保持のバランスを大幅に改善します。
論文 参考訳(メタデータ) (2023-08-23T13:02:52Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。