論文の概要: Continually Learning Self-Supervised Representations with Projected
Functional Regularization
- arxiv url: http://arxiv.org/abs/2112.15022v1
- Date: Thu, 30 Dec 2021 11:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 14:47:11.474910
- Title: Continually Learning Self-Supervised Representations with Projected
Functional Regularization
- Title(参考訳): 予測関数正規化による自己教師付き表現の連続学習
- Authors: Alex Gomez-Villa, Bartlomiej Twardowski, Lu Yu, Andrew D. Bagdanov,
Joost van de Weijer
- Abstract要約: 近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
- 参考スコア(独自算出の注目度): 39.92600544186844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent self-supervised learning methods are able to learn high-quality image
representations and are closing the gap with supervised methods. However, these
methods are unable to acquire new knowledge incrementally -- they are, in fact,
mostly used only as a pre-training phase with IID data. In this work we
investigate self-supervised methods in continual learning regimes without
additional memory or replay. To prevent forgetting of previous knowledge, we
propose the usage of functional regularization. We will show that naive
functional regularization, also known as feature distillation, leads to low
plasticity and therefore seriously limits continual learning performance. To
address this problem, we propose Projected Functional Regularization where a
separate projection network ensures that the newly learned feature space
preserves information of the previous feature space, while allowing for the
learning of new features. This allows us to prevent forgetting while
maintaining the plasticity of the learner. Evaluation against other incremental
learning approaches applied to self-supervision demonstrates that our method
obtains competitive performance in different scenarios and on multiple
datasets.
- Abstract(参考訳): 近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
しかし、これらの手法は新たな知識を段階的に獲得することができず、実際には、IDデータによる事前学習フェーズとしてのみ使用される。
本研究では,記憶や再生を伴わない継続的学習体制における自己指導手法について検討する。
従来の知識を忘れないように,機能正規化の利用を提案する。
機能的正規化は, 機能蒸留としても知られ, 可塑性が低く, 連続学習性能が著しく制限されることを示す。
そこで本稿では,新たに学習した特徴空間が,新たに学習した特徴空間の情報を保持しつつ,新たな特徴空間の学習を可能にするプロジェクションネットワークを提案する。
これにより,学習者の可塑性を維持しながら忘れることを防止することができる。
自己超越に適用される他の漸進的学習アプローチに対する評価は,本手法が異なるシナリオや複数のデータセットにおいて競合性能を得ることを示す。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference [36.61783715563126]
生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T07:54:49Z) - Domain-Aware Augmentations for Unsupervised Online General Continual
Learning [7.145581090959242]
本稿では、教師なしオンライン総合学習(UOGCL)におけるコントラスト学習のためのメモリ使用量を改善する新しい手法を提案する。
提案手法は単純だが有効であり, 従来の非教師なし手法に比べ, 最新の結果が得られる。
ドメインを意識した拡張手順は他のリプレイ方式にも適用可能であり、継続的な学習には有望な戦略である。
論文 参考訳(メタデータ) (2023-09-13T11:45:21Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。