論文の概要: IB-DRR: Incremental Learning with Information-Back Discrete
Representation Replay
- arxiv url: http://arxiv.org/abs/2104.10588v1
- Date: Wed, 21 Apr 2021 15:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:23:34.379917
- Title: IB-DRR: Incremental Learning with Information-Back Discrete
Representation Replay
- Title(参考訳): ib-drr:情報バック離散表現リプレイによるインクリメンタル学習
- Authors: Jian Jiang, Edoardo Cetin, Oya Celiktutan
- Abstract要約: インクリメンタルラーニングは、機械学習モデルが新しいクラスから新しい知識を継続的に取得できるようにすることを目的としている。
以前に見たクラスのトレーニングサンプルのサブセットをメモリに保存し、新しいトレーニングフェーズ中に再生することは、この目標を達成するために効率的で効果的な方法であることが証明されています。
しかし、モデルパフォーマンスと各クラスに保存するサンプル数とのトレードオフを見つけることは、リプレイベースの漸進学習では依然として未解決の問題である。
- 参考スコア(独自算出の注目度): 4.8666876477091865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental learning aims to enable machine learning models to continuously
acquire new knowledge given new classes, while maintaining the knowledge
already learned for old classes. Saving a subset of training samples of
previously seen classes in the memory and replaying them during new training
phases is proven to be an efficient and effective way to fulfil this aim. It is
evident that the larger number of exemplars the model inherits the better
performance it can achieve. However, finding a trade-off between the model
performance and the number of samples to save for each class is still an open
problem for replay-based incremental learning and is increasingly desirable for
real-life applications. In this paper, we approach this open problem by tapping
into a two-step compression approach. The first step is a lossy compression, we
propose to encode input images and save their discrete latent representations
in the form of codes that are learned using a hierarchical Vector Quantised
Variational Autoencoder (VQ-VAE). In the second step, we further compress codes
losslessly by learning a hierarchical latent variable model with bits-back
asymmetric numeral systems (BB-ANS). To compensate for the information lost in
the first step compression, we introduce an Information Back (IB) mechanism
that utilizes real exemplars for a contrastive learning loss to regularize the
training of a classifier. By maintaining all seen exemplars' representations in
the format of `codes', Discrete Representation Replay (DRR) outperforms the
state-of-art method on CIFAR-100 by a margin of 4% accuracy with a much less
memory cost required for saving samples. Incorporated with IB and saving a
small set of old raw exemplars as well, the accuracy of DRR can be further
improved by 2% accuracy.
- Abstract(参考訳): インクリメンタル学習は、機械学習モデルが、新しいクラスで学んだ知識を維持しながら、新しい知識を継続的に獲得することを可能にすることを目的としている。
前に見たクラスのトレーニングサンプルをメモリに保存し、新しいトレーニングフェーズでそれらを再生することは、この目的を達成するための効率的で効果的な方法であることが証明されている。
モデルが持つ多くの例が、それが達成できるパフォーマンスを継承していることは明らかです。
しかし、モデル性能と各クラスに保存するサンプル数とのトレードオフを見つけることは、リプレイベースの漸進学習には未解決の問題であり、現実のアプリケーションにはますます望ましい。
本稿では,二段階圧縮アプローチを用いて,この問題にアプローチする。
まず,入力画像の符号化を行い,階層的ベクトル量子化変分オートエンコーダ(vq-vae)を用いて学習する符号の形式に離散的潜在表現を保存することを提案する。
第2のステップでは、ビットバック非対称数値システム(BB-ANS)を用いて階層的潜在変数モデルを学習することにより、余分に圧縮する。
第1ステップの圧縮で失った情報を補うために,実例を対照的な学習損失として活用し,分類器の訓練を規則化する情報バック(IB)機構を導入する。
コード'の形式ですべての例題表現を維持することで、離散表現リプレイ(drr)はcifar-100の最先端メソッドを4%の精度で上回り、サンプルを保存するのに必要なメモリコストを大幅に削減した。
IBと組み合わされ、少量の古い原材料を保存し、DRRの精度を2%の精度でさらに向上させることができる。
関連論文リスト
- A Fresh Take on Stale Embeddings: Improving Dense Retriever Training with Corrector Networks [81.2624272756733]
密集検索では、ディープエンコーダは入力とターゲットの両方に埋め込みを提供する。
我々は、古いキャッシュされたターゲット埋め込みを調整できる小さなパラメトリック補正ネットワークを訓練する。
私たちのアプローチは、トレーニング中にターゲット埋め込み更新が行われなくても、最先端の結果と一致します。
論文 参考訳(メタデータ) (2024-09-03T13:29:13Z) - Exemplar-Free Class Incremental Learning via Incremental Representation [26.759108983223115]
古い擬似機能を構築することなく, efCIL のためのtextbfsimple Incremental Representation (IR) フレームワークを提案する。
IRはデータセット拡張を利用して、適切な特徴空間をカバーし、単一のL2スペースメンテナンス損失を使用することでモデルを忘れないようにしている。
論文 参考訳(メタデータ) (2024-03-24T16:29:50Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。