論文の概要: Toward Sustainable Continual Learning: Detection and Knowledge
Repurposing of Similar Tasks
- arxiv url: http://arxiv.org/abs/2210.05751v1
- Date: Tue, 11 Oct 2022 19:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 13:19:19.390690
- Title: Toward Sustainable Continual Learning: Detection and Knowledge
Repurposing of Similar Tasks
- Title(参考訳): 持続的連続学習に向けて--類似課題の検出と再提案
- Authors: Sijia Wang, Yoojin Choi, Junya Chen, Mostafa El-Khamy, and Ricardo
Henao
- Abstract要約: 本稿では,連続学習者が類似タスクと異種タスクを混在させるパラダイムを提案する。
本稿では,追加学習を必要としないタスク類似度検出機能を用いた連続学習フレームワークを提案する。
実験の結果,提案フレームワークは広く使用されているコンピュータビジョンのベンチマークで競合的に動作することがわかった。
- 参考スコア(独自算出の注目度): 31.095642850920385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing works on continual learning (CL) focus on overcoming the
catastrophic forgetting (CF) problem, with dynamic models and replay methods
performing exceptionally well. However, since current works tend to assume
exclusivity or dissimilarity among learning tasks, these methods require
constantly accumulating task-specific knowledge in memory for each task. This
results in the eventual prohibitive expansion of the knowledge repository if we
consider learning from a long sequence of tasks. In this work, we introduce a
paradigm where the continual learner gets a sequence of mixed similar and
dissimilar tasks. We propose a new continual learning framework that uses a
task similarity detection function that does not require additional learning,
with which we analyze whether there is a specific task in the past that is
similar to the current task. We can then reuse previous task knowledge to slow
down parameter expansion, ensuring that the CL system expands the knowledge
repository sublinearly to the number of learned tasks. Our experiments show
that the proposed framework performs competitively on widely used computer
vision benchmarks such as CIFAR10, CIFAR100, and EMNIST.
- Abstract(参考訳): これまでのCL(Continuousal Learning)に関する研究の多くは、破滅的な忘れ(CF)問題を克服することに重点を置いており、動的モデルやリプレイ手法は極めてよく機能している。
しかし、現在の研究は学習タスクの排他性や相似性を仮定する傾向があるため、これらの方法はタスクごとにタスク固有の知識を常にメモリに蓄積する必要がある。
これにより、長いタスクから学ぶことを考えると、最終的に知識リポジトリが拡張されてしまう。
そこで本研究では,連続学習者が相似的タスクと相似するタスクの列を連続的に得るパラダイムを提案する。
本研究では,従来のタスクに類似した特定のタスクが存在するかどうかを解析し,追加の学習を必要としないタスク類似性検出機能を用いた新しい連続学習フレームワークを提案する。
次に、従来のタスク知識を再利用してパラメータ拡張を遅くし、CLシステムが学習タスク数をサブラインナライズして知識リポジトリを拡張することを保証する。
提案手法は, CIFAR10, CIFAR100, EMNISTなど, 広く使用されているコンピュータビジョンベンチマークにおいて, 競合的に動作することを示す。
関連論文リスト
- Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - Is Multi-Task Learning an Upper Bound for Continual Learning? [26.729088618251282]
本稿では,特定のデータ拡張のクラスに対して,各タスクが不変表現を学習することに対応する,連続的な自己指導型学習環境を提案する。
連続学習は、MNIST、CIFAR-10、CIFAR-100など、様々なベンチマークデータセットでマルチタスク学習を上回ることが多い。
論文 参考訳(メタデータ) (2022-10-26T15:45:11Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Self-Attention Meta-Learner for Continual Learning [5.979373021392084]
SAM(Self-Attention Meta-Learner)は,タスクのシーケンスを学習する継続的学習の事前知識を学習する。
SAMには、将来のタスクごとに特定の関連する表現を選択することを学ぶアテンションメカニズムが組み込まれている。
タスク推論において,提案手法を Split CIFAR-10/100 と Split MNIST のベンチマークで評価した。
論文 参考訳(メタデータ) (2021-01-28T17:35:04Z) - Efficient Continual Learning with Modular Networks and Task-Driven
Priors [31.03712334701338]
継続学習(CL)における既存の文献は、破滅的な忘れを克服することに焦点を当てている。
新しいモジュールアーキテクチャを導入し、モジュールは特定のタスクを実行するために構成できる原子スキルを表す。
学習アルゴリズムは,モジュールを結合するあらゆる方法の指数関数探索空間上でタスク駆動前処理を活用し,タスクの長いストリームでの効率的な学習を可能にする。
論文 参考訳(メタデータ) (2020-12-23T12:42:16Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Adversarial Continual Learning [99.56738010842301]
本稿では,タスク不変およびタスク特化機能に対する不整合表現を学習するハイブリッド連続学習フレームワークを提案する。
本モデルでは,タスク固有のスキルの忘れを防止するためにアーキテクチャの成長と,共有スキルを維持するための経験的リプレイアプローチを組み合わせる。
論文 参考訳(メタデータ) (2020-03-21T02:08:17Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。