論文の概要: CUCL: Codebook for Unsupervised Continual Learning
- arxiv url: http://arxiv.org/abs/2311.14911v1
- Date: Sat, 25 Nov 2023 03:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:58:47.565085
- Title: CUCL: Codebook for Unsupervised Continual Learning
- Title(参考訳): CUCL:教師なし連続学習のためのコードブック
- Authors: Chen Cheng, Jingkuan Song, Xiaosu Zhu, Junchen Zhu, Lianli Gao,
Hengtao Shen
- Abstract要約: 本研究は,教師なし連続学習(UCL)の代替として,教師なし連続学習(UCL)に焦点を当てている。
本稿では,教師なし連続学習のためのCodebook for Unsupervised Continual Learning (CUCL) という手法を提案する。
本手法は教師なしおよび教師なしの手法の性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 129.91731617718781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The focus of this study is on Unsupervised Continual Learning (UCL), as it
presents an alternative to Supervised Continual Learning which needs
high-quality manual labeled data. The experiments under the UCL paradigm
indicate a phenomenon where the results on the first few tasks are suboptimal.
This phenomenon can render the model inappropriate for practical applications.
To address this issue, after analyzing the phenomenon and identifying the lack
of diversity as a vital factor, we propose a method named Codebook for
Unsupervised Continual Learning (CUCL) which promotes the model to learn
discriminative features to complete the class boundary. Specifically, we first
introduce a Product Quantization to inject diversity into the representation
and apply a cross quantized contrastive loss between the original
representation and the quantized one to capture discriminative information.
Then, based on the quantizer, we propose an effective Codebook Rehearsal to
address catastrophic forgetting. This study involves conducting extensive
experiments on CIFAR100, TinyImageNet, and MiniImageNet benchmark datasets. Our
method significantly boosts the performances of supervised and unsupervised
methods. For instance, on TinyImageNet, our method led to a relative
improvement of 12.76% and 7% when compared with Simsiam and BYOL, respectively.
- Abstract(参考訳): 本研究は、高品質な手動ラベル付きデータを必要とするSupervised Continual Learningに代わるものとして、教師なし連続学習(UCL)に焦点を当てている。
UCLパラダイムに基づく実験は、最初の数タスクの結果が最適以下である現象を示している。
この現象により、モデルが実用的な用途には不適当になる。
そこで本研究では,この現象を解析し,多様性の欠如を重要要因として同定した上で,識別的特徴を学習し,クラス境界を完遂する手法であるCodebook for Unsupervised Continual Learning (CUCL)を提案する。
具体的には、まず製品量子化を導入し、その表現に多様性を注入し、元の表現と量子化された表現とのクロス量子化コントラスト損失を適用して識別情報を取得する。
そこで,この量化器を用いて,破滅的忘れを解消する効果的なコードブックリハーサルを提案する。
この研究は、CIFAR100、TinyImageNet、MiniImageNetベンチマークデータセットに関する広範な実験を含む。
本手法は教師なしおよび教師なしの手法の性能を著しく向上させる。
例えば、TinyImageNetでは、SimsiamとBYOLと比較して相対的に12.76%、7%改善した。
関連論文リスト
- LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - From Pretext to Purpose: Batch-Adaptive Self-Supervised Learning [32.18543787821028]
本稿では,自己教師付きコントラスト学習におけるバッチ融合の適応的手法を提案する。
公平な比較で最先端のパフォーマンスを達成する。
提案手法は,データ駆動型自己教師型学習研究の進展に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-16T15:47:49Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。