論文の概要: Online Continual Learning on Hierarchical Label Expansion
- arxiv url: http://arxiv.org/abs/2308.14374v1
- Date: Mon, 28 Aug 2023 07:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:00:33.388303
- Title: Online Continual Learning on Hierarchical Label Expansion
- Title(参考訳): 階層的ラベル展開に関するオンライン連続学習
- Authors: Byung Hyun Lee, Okchul Jung, Jonghyun Choi, Se Young Chun
- Abstract要約: 階層型ラベル展開(HLE)という,オンライン学習制約付き多階層型階層型インクリメンタルタスク構成を提案する。
我々の構成により、ネットワークはまず粗粒度のクラスを学習でき、データラベルは様々な階層の深さにおいてより細かい粒度のクラスに継続的に拡張される。
実験により,提案手法はHLE設定の階層構造を効果的に利用し,階層全体の分類精度を向上させることができることを示した。
- 参考スコア(独自算出の注目度): 28.171890301966616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning (CL) enables models to adapt to new tasks and environments
without forgetting previously learned knowledge. While current CL setups have
ignored the relationship between labels in the past task and the new task with
or without small task overlaps, real-world scenarios often involve hierarchical
relationships between old and new tasks, posing another challenge for
traditional CL approaches. To address this challenge, we propose a novel
multi-level hierarchical class incremental task configuration with an online
learning constraint, called hierarchical label expansion (HLE). Our
configuration allows a network to first learn coarse-grained classes, with data
labels continually expanding to more fine-grained classes in various hierarchy
depths. To tackle this new setup, we propose a rehearsal-based method that
utilizes hierarchy-aware pseudo-labeling to incorporate hierarchical class
information. Additionally, we propose a simple yet effective memory management
and sampling strategy that selectively adopts samples of newly encountered
classes. Our experiments demonstrate that our proposed method can effectively
use hierarchy on our HLE setup to improve classification accuracy across all
levels of hierarchies, regardless of depth and class imbalance ratio,
outperforming prior state-of-the-art works by significant margins while also
outperforming them on the conventional disjoint, blurry and i-Blurry CL setups.
- Abstract(参考訳): 連続学習(continual learning, cl)は、モデルが新しいタスクや環境に適応することを可能にする。
現在のCLセットアップでは、過去のタスクのラベルと小さなタスクの重複の有無に関わらず新しいタスクの関係は無視されているが、現実のシナリオでは、古いタスクと新しいタスクの階層的な関係が伴うことが多く、従来のCLアプローチには別の課題が生じる。
この課題に対処するために,階層ラベル拡張(HLE)と呼ばれるオンライン学習制約を備えた,階層型階層型インクリメンタルタスク構成を提案する。
我々の構成では、ネットワークはまず粗粒度クラスを学習し、データラベルは様々な階層深さでより細粒度なクラスへと継続的に拡張されます。
そこで本研究では,階層認識型擬似ラベルを用いて階層クラス情報を組み込むリハーサルベース手法を提案する。
さらに,新たに遭遇したクラスのサンプルを選択的に採用する,単純かつ効果的なメモリ管理およびサンプリング戦略を提案する。
提案手法はhleの階層構造を効果的に活用し,深さやクラス不均衡比にかかわらず階層全体の分類精度を向上し,従来の不一致やぼやけ,i-blurryのcl設定よりも高いマージンで先行手法よりも優れていることを示す。
関連論文リスト
- Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning [16.318126586825734]
インクリメンタルラーニング(IL)は、逐次入力タスクから知識を蓄積することを目的としている。
私たちはVersatile Incremental Learning (VIL) という,より挑戦的で現実的で,未探索のILシナリオを考えています。
Incremental with Shift cONtrol (ICON) という,シンプルで効果的なILフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T07:44:28Z) - Low-Rank Mixture-of-Experts for Continual Medical Image Segmentation [18.984447545932706]
破滅的な忘れ」問題は、モデルが新しいカテゴリやタスクに拡張された際に、以前に学習した特徴を忘れたときに発生する。
本稿では,データ固有のMixture of Experts構造を導入して,新しいタスクやカテゴリを扱うネットワークを提案する。
クラスレベルおよびタスクレベルの連続学習課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-06-19T14:19:50Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Reinforcement Learning with Options and State Representation [105.82346211739433]
この論文は、強化学習分野を探求し、改良された手法を構築することを目的としている。
階層的強化学習(Hierarchical Reinforcement Learning)として知られる階層的な方法で学習タスクを分解することで、そのような目標に対処する。
論文 参考訳(メタデータ) (2024-03-16T08:30:55Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - Learning Functionally Decomposed Hierarchies for Continuous Control
Tasks with Path Planning [36.050432925402845]
我々は、長い水平方向制御タスクをうまく解決する新しい階層型強化学習アーキテクチャであるHiDeを提案する。
実験により,本手法は未知のテスト環境にまたがって一般化され,学習法および非学習法と比較して3倍の地平線長に拡張可能であることが示された。
論文 参考訳(メタデータ) (2020-02-14T10:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。