論文の概要: TIDo: Source-free Task Incremental Learning in Non-stationary
Environments
- arxiv url: http://arxiv.org/abs/2301.12055v1
- Date: Sat, 28 Jan 2023 02:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:23:43.274730
- Title: TIDo: Source-free Task Incremental Learning in Non-stationary
Environments
- Title(参考訳): tido:非定常環境におけるソースフリータスクインクリメンタル学習
- Authors: Abhinit Kumar Ambastha, Leong Tze Yun
- Abstract要約: モデルベースのエージェントを更新して新しいターゲットタスクを学習するには、過去のトレーニングデータを格納する必要があります。
ラベル付きターゲットデータセットの制限を克服するタスクインクリメンタル学習手法はほとんどない。
本研究では,非定常的および目標的タスクに適応可能なワンショットタスクインクリメンタル学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents an incremental learning approach for autonomous agents to
learn new tasks in a non-stationary environment. Updating a DNN model-based
agent to learn new target tasks requires us to store past training data and
needs a large labeled target task dataset. Few-shot task incremental learning
methods overcome the limitation of labeled target datasets by adapting trained
models to learn private target classes using a few labeled representatives and
a large unlabeled target dataset. However, the methods assume that the source
and target tasks are stationary. We propose a one-shot task incremental
learning approach that can adapt to non-stationary source and target tasks. Our
approach minimizes adversarial discrepancy between the model's feature space
and incoming incremental data to learn an updated hypothesis. We also use
distillation loss to reduce catastrophic forgetting of previously learned
tasks. Finally, we use Gaussian prototypes to generate exemplar instances
eliminating the need to store past training data. Unlike current work in task
incremental learning, our model can learn both source and target task updates
incrementally. We evaluate our method on various problem settings for
incremental object detection and disease prediction model update. We evaluate
our approach by measuring the performance of shared class and target private
class prediction. Our results show that our approach achieved improved
performance compared to existing state-of-the-art task incremental learning
methods.
- Abstract(参考訳): この研究は、自律エージェントが非定常環境で新しいタスクを学習するための漸進的な学習手法を示す。
DNNモデルベースのエージェントを更新して新しいターゲットタスクを学習するには、過去のトレーニングデータを格納する必要がある。
いくつかのラベル付き代表と大きなラベル付きターゲットデータセットを使用して、トレーニングされたモデルを適用してプライベートターゲットクラスを学ぶことで、ラベル付きターゲットデータセットの制限を克服するタスクインクリメンタル学習手法はほとんどない。
しかし、これらのメソッドはソースとターゲットのタスクが定常であると仮定している。
本研究では,非定常的および目標的タスクに適応可能なワンショットタスクインクリメンタル学習手法を提案する。
提案手法は,モデルの特徴空間とインクリメンタルデータとの相反性を最小限に抑え,更新仮説を学習する。
また, 蒸留損失を利用して, 従来学習した課題の破滅的な忘れ込みを低減する。
最後に、gaussianのプロトタイプを使用して、過去のトレーニングデータを格納する必要をなくしたexemplarインスタンスを生成します。
タスクインクリメンタルな学習における現在の作業とは異なり、私たちのモデルはソースとターゲットのタスク更新の両方をインクリメンタルに学習することができます。
本手法は,インクリメンタルオブジェクト検出と疾患予測モデル更新のための様々な問題設定について評価する。
我々は,共有クラスの性能を測定し,個人クラスの予測を対象とするアプローチを評価する。
その結果,既存のタスクインクリメンタル学習手法と比較して,パフォーマンスが向上した。
関連論文リスト
- Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - $α$VIL: Learning to Leverage Auxiliary Tasks for Multitask Learning [3.809702129519642]
マルチタスク学習は、共有モデルの助けを借りて、さまざまな(通常は関連する)タスクをトレーニングすることを目的としている。
目標に有する正あるいは負の影響を推定することが重要である。
本稿では,モデル学習中にタスク重みを動的に調整できる「$alpha$Variable Learning」(「alpha$VIL」)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T14:12:33Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding [65.75873687351553]
本研究は,対話領域における逐次移動学習における目標タスク訓練データ量の影響について検討する。
非意図的に、我々のデータでは、タスクトレーニングデータのサイズを目標とする場合、シーケンシャルトランスファーラーニングがトランスファーラーニングなしで同じモデルと比較した場合、最小限の効果が示される。
論文 参考訳(メタデータ) (2022-10-21T04:36:46Z) - Improving Meta-Learning Generalization with Activation-Based
Early-Stopping [12.299371455015239]
数ショットの学習のためのメタラーニングアルゴリズムは、少数の例だけで新しいタスクに一般化できるニューラルネットワークを訓練することを目的としている。
早期停止は、新しいタスク分布に最適な一般化に達すると、モデルトレーニングを停止させる。
これは、メタテストセットが異なるターゲットデータセットから来る、数ショットの転送学習設定で問題となる。
論文 参考訳(メタデータ) (2022-08-03T22:55:45Z) - Rectification-based Knowledge Retention for Continual Learning [49.1447478254131]
ディープラーニングモデルは、インクリメンタルな学習環境で訓練されたときに壊滅的な忘れに苦しむ。
タスクインクリメンタル学習問題に対処するための新しいアプローチを提案する。これは、インクリメンタルに到着する新しいタスクに関するモデルをトレーニングすることを含む。
私たちのアプローチは、ゼロショットと非ゼロショットタスクインクリメンタルラーニング設定の両方で使用できます。
論文 参考訳(メタデータ) (2021-03-30T18:11:30Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。