論文の概要: Efficient Feature Transformations for Discriminative and Generative
Continual Learning
- arxiv url: http://arxiv.org/abs/2103.13558v1
- Date: Thu, 25 Mar 2021 01:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 00:07:30.856572
- Title: Efficient Feature Transformations for Discriminative and Generative
Continual Learning
- Title(参考訳): 識別的および生成的連続学習のための効率的な特徴変換
- Authors: Vinay Kumar Verma, Kevin J Liang, Nikhil Mehta, Piyush Rai, Lawrence
Carin
- Abstract要約: 継続的学習のための簡易タスク特化機能マップ変換戦略を提案する。
これらは新しいタスクを学習するための強力な柔軟性を提供し、ベースアーキテクチャに最小パラメータを追加することで実現される。
本手法の有効性と効率を,判別(cifar-100およびimagenet-1k)および生成的タスクの一連の実験を用いて実証する。
- 参考スコア(独自算出の注目度): 98.10425163678082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As neural networks are increasingly being applied to real-world applications,
mechanisms to address distributional shift and sequential task learning without
forgetting are critical. Methods incorporating network expansion have shown
promise by naturally adding model capacity for learning new tasks while
simultaneously avoiding catastrophic forgetting. However, the growth in the
number of additional parameters of many of these types of methods can be
computationally expensive at larger scales, at times prohibitively so. Instead,
we propose a simple task-specific feature map transformation strategy for
continual learning, which we call Efficient Feature Transformations (EFTs).
These EFTs provide powerful flexibility for learning new tasks, achieved with
minimal parameters added to the base architecture. We further propose a feature
distance maximization strategy, which significantly improves task prediction in
class incremental settings, without needing expensive generative models. We
demonstrate the efficacy and efficiency of our method with an extensive set of
experiments in discriminative (CIFAR-100 and ImageNet-1K) and generative (LSUN,
CUB-200, Cats) sequences of tasks. Even with low single-digit parameter growth
rates, EFTs can outperform many other continual learning methods in a wide
range of settings.
- Abstract(参考訳): ニューラルネットワークが現実世界のアプリケーションにますます応用されるにつれて、分散シフトとシーケンシャルなタスク学習に、忘れずに対処するメカニズムが重要である。
ネットワーク拡張を組み込んだ手法では,新しいタスクを学習するためのモデルキャパシティを自然に加えながら,破滅的な放棄を回避できることが示されている。
しかし、これらの方法の多くの追加パラメータの数の増加は、大規模で計算的にコストがかかる場合がある。
その代わりに、連続学習のための単純なタスク固有の特徴マップ変換戦略を提案し、これを効率的な特徴変換(EFT)と呼ぶ。
これらのeftは、ベースアーキテクチャに最小限のパラメータを追加することで、新しいタスクを学習するための強力な柔軟性を提供します。
さらに,高コストな生成モデルを必要とすることなく,クラスインクリメンタル設定におけるタスク予測を大幅に改善する特徴距離最大化戦略を提案する。
本手法の有効性と有効性は,識別的(CIFAR-100およびImageNet-1K)および生成的(LSUN,CUB-200,Cats)タスクにおける広範囲な実験によって実証する。
シングル桁パラメータの成長率が低いにもかかわらず、ETFは幅広い設定で他の連続的な学習方法よりも優れている。
関連論文リスト
- Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Dynamic Transformer Architecture for Continual Learning of Multimodal
Tasks [27.59758964060561]
トランスフォーマーニューラルネットワークは、さまざまなデータモダリティの幅広いアプリケーションにおいて、以前のアーキテクチャを置き換える傾向にある。
連続学習(CL)は、自律学習エージェントに順次到着するタスク間で知識の伝達を容易にすることで、ソリューションとして現れる。
本稿では,視覚と言語の両方に関わる学習タスクに着目したトランスフォーマーベースのCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:03:30Z) - Efficient Expansion and Gradient Based Task Inference for Replay Free
Incremental Learning [5.760774528950479]
最近の拡張ベースモデルはタスクインクリメンタルラーニング(TIL)に有望な結果を示している
クラスインクリメンタルラーニング(CIL)では、タスクIDの予測が重要な課題である。
擬似ラベルを用いたエントロピー重み付きデータ拡張とモデル勾配を利用する頑健なタスク予測手法を提案する。
論文 参考訳(メタデータ) (2023-12-02T17:28:52Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - E2-AEN: End-to-End Incremental Learning with Adaptively Expandable
Network [57.87240860624937]
本稿では,E2-AENという,エンドツーエンドのトレーニング可能な適応拡張可能なネットワークを提案する。
以前のタスクの精度を落とさずに、新しいタスクのための軽量な構造を動的に生成する。
E2-AENはコストを削減し、あらゆるフィードフォワードアーキテクチャをエンドツーエンドで構築できる。
論文 参考訳(メタデータ) (2022-07-14T09:04:51Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。