論文の概要: DELTA: Decoupling Long-Tailed Online Continual Learning
- arxiv url: http://arxiv.org/abs/2404.04476v1
- Date: Sat, 6 Apr 2024 02:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 21:08:32.777969
- Title: DELTA: Decoupling Long-Tailed Online Continual Learning
- Title(参考訳): DELTA: 長期オンライン学習の分離
- Authors: Siddeshwar Raghavan, Jiangpeng He, Fengqing Zhu,
- Abstract要約: Long-Tailed Online Continual Learning (LTOCL)は、クラス不均衡なデータストリームのシーケンシャルな到着から新しいタスクを学ぶことを目的としている。
DELTAは,学習表現の強化を目的とした非結合型学習手法である。
我々は,DELTAが既存のOCL手法を超越して,インクリメンタル学習の能力を向上させることを実証した。
- 参考スコア(独自算出の注目度): 7.507868991415516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A significant challenge in achieving ubiquitous Artificial Intelligence is the limited ability of models to rapidly learn new information in real-world scenarios where data follows long-tailed distributions, all while avoiding forgetting previously acquired knowledge. In this work, we study the under-explored problem of Long-Tailed Online Continual Learning (LTOCL), which aims to learn new tasks from sequentially arriving class-imbalanced data streams. Each data is observed only once for training without knowing the task data distribution. We present DELTA, a decoupled learning approach designed to enhance learning representations and address the substantial imbalance in LTOCL. We enhance the learning process by adapting supervised contrastive learning to attract similar samples and repel dissimilar (out-of-class) samples. Further, by balancing gradients during training using an equalization loss, DELTA significantly enhances learning outcomes and successfully mitigates catastrophic forgetting. Through extensive evaluation, we demonstrate that DELTA improves the capacity for incremental learning, surpassing existing OCL methods. Our results suggest considerable promise for applying OCL in real-world applications.
- Abstract(参考訳): ユビキタス人工知能を実現する上で重要な課題は、データが長い尾の分布に従う現実のシナリオにおいて、モデルが新しい情報を素早く学習する能力に制限があることだ。
本研究では,LTOCL(Long-Tailed Online Continual Learning)の未探索問題について検討する。
各データは、タスクデータ分布を知らずに、トレーニングのために一度だけ観察される。
DELTAは,学習表現の強化とLTOCLの実質的不均衡に対応するために設計された非結合型学習手法である。
我々は、教師付きコントラスト学習に適応して、類似したサンプルを引きつけ、異種(クラス外)サンプルを撃退することで、学習プロセスを強化する。
さらに、等化損失を用いたトレーニング中の勾配のバランスをとることにより、DELTAは学習結果を著しく向上させ、破滅的な忘れを軽減できる。
広範に評価することで、DELTAは既存のOCL手法を超越して、インクリメンタルラーニングの能力を向上させることを示した。
この結果から,OCLを実世界のアプリケーションに適用する可能性が示唆された。
関連論文リスト
- Large Language Model Can Continue Evolving From Mistakes [36.14056870453356]
大きな言語モデル(LLM)は、様々な下流タスクで素晴らしいパフォーマンスを示す。
知識不足と欠陥のある事前学習データのために、特定のシナリオで誤った応答を発生させる可能性がある。
そこで我々は,ミスの学習スキルに触発されたCEM(Continuue Evolving from Mistakes)手法を提案する。
論文 参考訳(メタデータ) (2024-04-11T17:44:56Z) - Orchestrate Latent Expertise: Advancing Online Continual Learning with Multi-Level Supervision and Reverse Self-Distillation [38.39340194054917]
オンライン連続学習(OCL)は、1パスのデータストリームでCLを実行する、より難しいが現実的な設定である。
マルチレベルオンラインシーケンスエキスパート(MOSE)という新しいアプローチを導入する。
MOSEは、モデルを積み重ねたサブエキスパートとして育成し、マルチレベルの監督と逆の自己蒸留を統合する。
論文 参考訳(メタデータ) (2024-03-30T16:53:10Z) - Dynamic Sub-graph Distillation for Robust Semi-supervised Continual
Learning [52.046037471678005]
半教師付き連続学習(SSCL)に焦点をあて、そのモデルが未知のカテゴリを持つ部分ラベル付きデータから徐々に学習する。
半教師付き連続学習のための動的サブグラフ蒸留法(DSGD)を提案する。
論文 参考訳(メタデータ) (2023-12-27T04:40:12Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Kaizen: Practical Self-supervised Continual Learning with Continual
Fine-tuning [21.36130180647864]
モデルをスクラッチからトレーニングして、新たに生成されたデータに適応することは、時間がかかり非効率である。
破滅的な忘れを軽減できるトレーニングアーキテクチャを導入します。
Kaizenは、競争力のあるビジョンベンチマークにおいて、以前のSSLモデルを大きく上回っている。
論文 参考訳(メタデータ) (2023-03-30T09:08:57Z) - Dissecting Continual Learning a Structural and Data Analysis [0.0]
連続学習(Continuous Learning)は、生涯学習が可能なアルゴリズムを考案するための分野である。
ディープラーニングの手法は、モデル化されたデータがその後の学習セッションでかなりの分散シフトを受けていない場合、印象的な結果が得られる。
このようなシステムをこのインクリメンタルな設定に公開すると、パフォーマンスは急速に低下します。
論文 参考訳(メタデータ) (2023-01-03T10:37:11Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Semi-Supervised and Unsupervised Deep Visual Learning: A Survey [76.2650734930974]
半教師なし学習と教師なし学習は、ラベルなしの視覚データから学ぶための有望なパラダイムを提供する。
本稿では, 半教師付き学習(SSL)と非教師付き学習(UL)の先進的な深層学習アルゴリズムについて, 統一的な視点による視覚的認識について概説する。
論文 参考訳(メタデータ) (2022-08-24T04:26:21Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。