論文の概要: Learning to Learn for Few-shot Continual Active Learning
- arxiv url: http://arxiv.org/abs/2311.03732v1
- Date: Tue, 7 Nov 2023 05:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 16:50:58.377015
- Title: Learning to Learn for Few-shot Continual Active Learning
- Title(参考訳): 単発連続アクティブラーニングのための学習
- Authors: Stella Ho, Ming Liu, Shang Gao, Longxiang Gao
- Abstract要約: 継続的な学習は、新しいドメインで可塑性を示しながら、以前見たタスクを解く際の安定性を確保するために努力する。
CLの最近の進歩は、特にNLPドメインにおいて、主に教師付き学習環境に限られている。
メタコンチネンタルアクティブラーニング(Meta-Continual Active Learning)と呼ばれる,シンプルだが効率的な手法を提案する。
- 参考スコア(独自算出の注目度): 10.14157723705624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning strives to ensure stability in solving previously seen
tasks while demonstrating plasticity in a novel domain. Recent advances in CL
are mostly confined to a supervised learning setting, especially in NLP domain.
In this work, we consider a few-shot continual active learning (CAL) setting
where labeled data is inadequate, and unlabeled data is abundant but with a
limited annotation budget. We propose a simple but efficient method, called
Meta-Continual Active Learning. Specifically, we employ meta-learning and
experience replay to address the trade-off between stability and plasticity. As
a result, it finds an optimal initialization that efficiently utilizes
annotated information for fast adaptation while preventing catastrophic
forgetting of past tasks. We conduct extensive experiments to validate the
effectiveness of the proposed method and analyze the effect of various active
learning strategies and memory sample selection methods in a few-shot CAL
setup. Our experiment results demonstrate that random sampling is the best
default strategy for both active learning and memory sample selection to solve
few-shot CAL problems.
- Abstract(参考訳): 継続的な学習は、新しいドメインで可塑性を示しながら、以前見たタスクを解く際の安定性を確保するために努力する。
CLの最近の進歩は、特にNLPドメインにおいて、主に教師付き学習環境に限られている。
本研究では,ラベル付きデータが不十分であり,ラベル付きデータが豊富だがアノテーションの予算が限られている,数ショット連続型アクティブラーニング(CAL)について考察する。
メタContinual Active Learningと呼ばれる,シンプルだが効率的な手法を提案する。
具体的には、安定性と可塑性のトレードオフに対処するため、メタラーニングと経験リプレイを採用しています。
その結果、過去のタスクの破滅的な忘れ込みを防止しつつ、アノテートされた情報を高速適応に効率的に活用する最適な初期化が見つかる。
提案手法の有効性を検証するために広範な実験を行い,数回のcal設定における各種アクティブラーニング戦略とメモリサンプル選択手法の効果を分析した。
実験の結果,無作為サンプリングは能動的学習とメモリサンプル選択の両方において最善の既定戦略であることがわかった。
関連論文リスト
- Image Classification with Deep Reinforcement Active Learning [28.924413229981827]
多くの実世界のシナリオでは、ラベル付きデータは不足しており、ハンドラベルは時間、労力、コストが要求される。
アクティブラーニング(英: Active Learning)は、専門家によって注釈付けされ、手作業によるデータのラベル付けを緩和する代替パラダイムである。
本研究では,マルコフ決定過程(MDP)に基づく適応型能動学習法を提案する。
論文 参考訳(メタデータ) (2024-12-27T18:37:51Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference [36.61783715563126]
生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T07:54:49Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Meta-Learning with Sparse Experience Replay for Lifelong Language
Learning [26.296412053816233]
本稿では,スパース体験を再現したメタラーニングに基づく言語タスクの生涯学習のための新しいアプローチを提案する。
本研究では,タスクのストリーム上で1回のパスを実行するという現実的な設定の下で,生涯のテキスト分類と関係抽出に関する最先端結果を得る。
論文 参考訳(メタデータ) (2020-09-10T14:36:38Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。