論文の概要: Deep Bayesian Unsupervised Lifelong Learning
- arxiv url: http://arxiv.org/abs/2106.07035v1
- Date: Sun, 13 Jun 2021 16:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 09:07:39.925927
- Title: Deep Bayesian Unsupervised Lifelong Learning
- Title(参考訳): 深ベイズ教師なし生涯学習
- Authors: Tingting Zhao, Zifeng Wang, Aria Masoomi, Jennifer Dy
- Abstract要約: 非教師付き生涯学習(ULL)における課題の解決に着目する。
我々は、新しいエンドツーエンドのDeep Bayesian Unsupervised Lifelong Learning (DBULL)アルゴリズムを用いて、ULLのための完全なベイズ推論フレームワークを開発する。
過去の知識を効率的に維持するために,生データの潜在表現の十分な統計情報を用いて,新しい知識保存機構を開発する。
- 参考スコア(独自算出の注目度): 3.4827140757744908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelong Learning (LL) refers to the ability to continually learn and solve
new problems with incremental available information over time while retaining
previous knowledge. Much attention has been given lately to Supervised Lifelong
Learning (SLL) with a stream of labelled data. In contrast, we focus on
resolving challenges in Unsupervised Lifelong Learning (ULL) with streaming
unlabelled data when the data distribution and the unknown class labels evolve
over time. Bayesian framework is natural to incorporate past knowledge and
sequentially update the belief with new data. We develop a fully Bayesian
inference framework for ULL with a novel end-to-end Deep Bayesian Unsupervised
Lifelong Learning (DBULL) algorithm, which can progressively discover new
clusters without forgetting the past with unlabelled data while learning latent
representations. To efficiently maintain past knowledge, we develop a novel
knowledge preservation mechanism via sufficient statistics of the latent
representation for raw data. To detect the potential new clusters on the fly,
we develop an automatic cluster discovery and redundancy removal strategy in
our inference inspired by Nonparametric Bayesian statistics techniques. We
demonstrate the effectiveness of our approach using image and text corpora
benchmark datasets in both LL and batch settings.
- Abstract(参考訳): 生涯学習(英: Lifelong Learning, LL)とは、従来の知識を維持しながら、段階的に利用可能な情報を用いて、新しい問題を継続的に学習し、解決する能力である。
最近、ラベル付きデータのストリームでSupervised Lifelong Learning (SLL)に多くの注目を集めている。
対照的に、データ分布と未知のクラスラベルが時間とともに進化するときに、未学習データをストリーミングすることで、Unsupervised Lifelong Learning(ULL)の課題を解決することに重点を置いている。
ベイジアンフレームワークは、過去の知識を取り入れ、信念を新たなデータで順次更新することが自然である。
我々は、ullの完全なベイズ推論フレームワークを開発し、新しいエンドツーエンドのdeep bayesian unsupervised lifelong learning (dbull)アルゴリズムを用いて、潜在表現を学習しながら、ラベルなしデータで過去を忘れることなく、段階的に新しいクラスタを発見できる。
過去の知識を効率的に維持するために,生データの潜在表現の十分な統計情報を用いて,新しい知識保存機構を開発する。
新たなクラスターをオンザフライで検出するために,非パラメトリックベイズ統計手法に触発された推論において,クラスタの自動発見と冗長性除去戦略を開発した。
LLとバッチ設定の両方で画像およびテキストコーパスベンチマークデータセットを用いて,本手法の有効性を示す。
関連論文リスト
- Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference [36.61783715563126]
生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T07:54:49Z) - CTP: Towards Vision-Language Continual Pretraining via Compatible
Momentum Contrast and Topology Preservation [128.00940554196976]
Vision-Language Continual Pretraining (VLCP)は、大規模なデータセット上でオフラインでトレーニングすることで、さまざまな下流タスクに対して印象的な結果を示している。
VLCP(Vision-Language Continual Pretraining)の研究を支援するために,我々はまず,包括的で統一されたベンチマークデータセットP9Dをコントリビュートする。
独立したタスクとしての各業界からのデータは、継続的な学習をサポートし、Webデータの事前学習をシミュレートする現実世界のロングテールな性質に準拠している。
論文 参考訳(メタデータ) (2023-08-14T13:53:18Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - Contrastive Learning with Boosted Memorization [36.957895270908324]
自己教師付き学習は、視覚的およびテキスト的データの表現学習において大きな成功を収めた。
近年の自己指導型長期学習の試行は、損失視点やモデル視点の再バランスによって行われる。
本稿では,ラベルを意識しないコンテキストにおける長期学習を強化するために,新しいBCL法を提案する。
論文 参考訳(メタデータ) (2022-05-25T11:54:22Z) - Learning to Predict Gradients for Semi-Supervised Continual Learning [36.715712711431856]
マシンインテリジェンスの主な課題は、以前獲得した知識を忘れずに、新しい視覚概念を学習することだ。
既存の教師付き連続学習と人間のような知性の間にはギャップがあり、人間はラベル付きデータとラベルなしデータの両方から学ぶことができる。
我々は,既存の連続学習モデルに汎用的に適用可能な,半教師付き連続学習法を定式化した。
論文 参考訳(メタデータ) (2022-01-23T06:45:47Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Continual Learning From Unlabeled Data Via Deep Clustering [7.704949298975352]
継続的学習は、新しいタスクが到着するたびにモデルをスクラッチから再トレーニングするのではなく、少ない計算とメモリリソースを使って、新しいタスクをインクリメンタルに学習することを目的としている。
クラスタ割り当てから得られた擬似ラベルをモデル更新に用いて,教師なしモードで継続的学習を実現する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T23:46:17Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。