論文の概要: GROWN: GRow Only When Necessary for Continual Learning
- arxiv url: http://arxiv.org/abs/2110.00908v1
- Date: Sun, 3 Oct 2021 02:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 07:46:32.618101
- Title: GROWN: GRow Only When Necessary for Continual Learning
- Title(参考訳): GROWN: 継続的な学習に必要なときだけ成長する
- Authors: Li Yang, Sen Lin, Junshan Zhang, Deliang Fan
- Abstract要約: ディープニューラルネットワーク(Deep Neural Networks, DNN)は、新しいタスクを学ぶ際に、以前のタスクに関する知識を忘れてしまう。
この問題に対処するために、新しいタスクを逐次学習し、忘れずに古いタスクから新しいタスクへの知識伝達を行う連続学習が開発された。
GROWNは、必要な時にのみモデルを動的に成長させる、新しいエンドツーエンドの継続的学習フレームワークである。
- 参考スコア(独自算出の注目度): 39.56829374809613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Catastrophic forgetting is a notorious issue in deep learning, referring to
the fact that Deep Neural Networks (DNN) could forget the knowledge about
earlier tasks when learning new tasks. To address this issue, continual
learning has been developed to learn new tasks sequentially and perform
knowledge transfer from the old tasks to the new ones without forgetting. While
recent structure-based learning methods show the capability of alleviating the
forgetting problem, these methods start from a redundant full-size network and
require a complex learning process to gradually grow-and-prune or search the
network structure for each task, which is inefficient. To address this problem
and enable efficient network expansion for new tasks, we first develop a
learnable sparse growth method eliminating the additional pruning/searching
step in previous structure-based methods. Building on this learnable sparse
growth method, we then propose GROWN, a novel end-to-end continual learning
framework to dynamically grow the model only when necessary. Different from all
previous structure-based methods, GROWN starts from a small seed network,
instead of a full-sized one. We validate GROWN on multiple datasets against
state-of-the-art methods, which shows superior performance in both accuracy and
model size. For example, we achieve 1.0\% accuracy gain on average compared to
the current SOTA results on CIFAR-100 Superclass 20 tasks setting.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、新しいタスクを学ぶ際に、以前のタスクに関する知識を忘れてしまう。
この問題に対処するために,新しいタスクを逐次学習し,古いタスクから新しいタスクへの知識伝達を忘れることなく行う継続的学習が開発されている。
最近の構造に基づく学習手法では、忘れる問題を緩和する能力を示しているが、これらの手法は冗長なフルサイズネットワークから始まり、各タスクのネットワーク構造を徐々に成長させ、探索するために複雑な学習プロセスを必要とする。
この問題に対処し,新しいタスクのための効率的なネットワーク拡張を実現するため,我々はまず学習可能なスパース成長法を開発し,従来の構造ベース手法におけるpruning/searchingステップを取り除いた。
そこで我々は,この学習可能なスパース成長法に基づいて,必要時にのみモデルを動的に成長させる,新しいエンドツーエンド連続学習フレームワーク grown を提案する。
これまでのすべての構造ベースの方法とは異なり、GROWNはフルサイズのものではなく、小さなシードネットワークから始まる。
我々は,複数のデータセット上のGROWNを最先端手法に対して検証し,精度とモデルサイズの両方において優れた性能を示す。
例えば、CIFAR-100 Superclass 20タスク設定における現在のSOTA結果と比較すると、平均1.0\%の精度向上を実現している。
関連論文リスト
- TaE: Task-aware Expandable Representation for Long Tail Class Incremental Learning [42.630413950957795]
本稿では,各タスクから多様な表現を学習するための新しいタスク対応拡張(TaE)フレームワークを提案する。
TaEは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-08T16:37:04Z) - MixtureGrowth: Growing Neural Networks by Recombining Learned Parameters [19.358670728803336]
ほとんどのディープニューラルネットワークは、固定されたネットワークアーキテクチャの下でトレーニングされており、アーキテクチャの変更時に再トレーニングを必要とする。
これを回避するために、時間とともにランダムな重みを加えて小さなネットワークから成長させ、徐々にターゲットネットワークサイズを達成できる。
このナイーブなアプローチは、成長するプロセスに多くのノイズをもたらすため、実際には不足しています。
論文 参考訳(メタデータ) (2023-11-07T11:37:08Z) - Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Neural Weight Search for Scalable Task Incremental Learning [6.413209417643468]
タスクインクリメンタル学習は,新たなタスクを学習しながら,それまでの学習したタスクのパフォーマンスを維持することを目的として,破滅的な忘れを解消する。
有望なアプローチの1つは、将来のタスクのために個々のネットワークやサブネットワークを構築することである。
これにより、新しいタスクに対する余分な負担を省き、この問題に対処する方法がタスクインクリメンタルな学習においてオープンな問題として残されているため、メモリの増大が続く。
論文 参考訳(メタデータ) (2022-11-24T23:30:23Z) - Rethinking Task-Incremental Learning Baselines [5.771817160915079]
本稿では,タスク・インクリメンタル・ラーニングのための簡易かつ効果的な調整ネットワーク(SAN)を提案する。
本研究では,3Dポイントクラウドオブジェクト (ModelNet40) と2Dイメージ (CIFAR10, CIFAR100, MiniImageNet, MNIST, PermutedMNIST, notMNIST, SVHN, FashionMNIST) の認識タスクについて検討する。
論文 参考訳(メタデータ) (2022-05-23T14:52:38Z) - Rectification-based Knowledge Retention for Continual Learning [49.1447478254131]
ディープラーニングモデルは、インクリメンタルな学習環境で訓練されたときに壊滅的な忘れに苦しむ。
タスクインクリメンタル学習問題に対処するための新しいアプローチを提案する。これは、インクリメンタルに到着する新しいタスクに関するモデルをトレーニングすることを含む。
私たちのアプローチは、ゼロショットと非ゼロショットタスクインクリメンタルラーニング設定の両方で使用できます。
論文 参考訳(メタデータ) (2021-03-30T18:11:30Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。