論文の概要: Rethinking Task-Incremental Learning Baselines
- arxiv url: http://arxiv.org/abs/2205.11367v1
- Date: Mon, 23 May 2022 14:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:22:04.422817
- Title: Rethinking Task-Incremental Learning Baselines
- Title(参考訳): タスクインクリメンタル学習ベースラインの再考
- Authors: Md Sazzad Hossain, Pritom Saha, Townim Faisal Chowdhury, Shafin
Rahman, Fuad Rahman, Nabeel Mohammed
- Abstract要約: 本稿では,タスク・インクリメンタル・ラーニングのための簡易かつ効果的な調整ネットワーク(SAN)を提案する。
本研究では,3Dポイントクラウドオブジェクト (ModelNet40) と2Dイメージ (CIFAR10, CIFAR100, MiniImageNet, MNIST, PermutedMNIST, notMNIST, SVHN, FashionMNIST) の認識タスクについて検討する。
- 参考スコア(独自算出の注目度): 5.771817160915079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is common to have continuous streams of new data that need to be
introduced in the system in real-world applications. The model needs to learn
newly added capabilities (future tasks) while retaining the old knowledge (past
tasks). Incremental learning has recently become increasingly appealing for
this problem. Task-incremental learning is a kind of incremental learning where
task identity of newly included task (a set of classes) remains known during
inference. A common goal of task-incremental methods is to design a network
that can operate on minimal size, maintaining decent performance. To manage the
stability-plasticity dilemma, different methods utilize replay memory of past
tasks, specialized hardware, regularization monitoring etc. However, these
methods are still less memory efficient in terms of architecture growth or
input data costs. In this study, we present a simple yet effective adjustment
network (SAN) for task incremental learning that achieves near state-of-the-art
performance while using minimal architectural size without using memory
instances compared to previous state-of-the-art approaches. We investigate this
approach on both 3D point cloud object (ModelNet40) and 2D image (CIFAR10,
CIFAR100, MiniImageNet, MNIST, PermutedMNIST, notMNIST, SVHN, and FashionMNIST)
recognition tasks and establish a strong baseline result for a fair comparison
with existing methods. On both 2D and 3D domains, we also observe that SAN is
primarily unaffected by different task orders in a task-incremental setting.
- Abstract(参考訳): 現実世界のアプリケーションでシステムに導入する必要がある新しいデータの連続的なストリームを持つことが一般的です。
モデルは、古い知識(pastタスク)を保持しながら、新しく追加された機能(将来のタスク)を学習する必要があります。
インクリメンタルラーニングは近年,この問題に対してますますアピールしている。
タスクインクリメンタル学習(task-incremental learning)は、新しく含まれたタスク(クラスの集合)のタスクidが推論の間も知られているインクリメンタル学習の一種である。
task-incremental methodの共通の目標は、最小限のサイズで動作し、良好なパフォーマンスを維持するネットワークを設計することである。
安定性・塑性ジレンマを管理するために、過去のタスクのリプレイメモリ、専用ハードウェア、正規化監視等を利用する方法が異なる。
しかし、これらの手法はアーキテクチャの成長や入力データコストの観点からもメモリ効率が低い。
本研究では,メモリインスタンスを使わずに最小のアーキテクチャサイズを用いながら,最先端に近いパフォーマンスを実現するタスクインクリメンタル学習のための,単純かつ効果的な調整ネットワーク(san)を提案する。
本研究では, 3D 点クラウドオブジェクト (ModelNet40) と 2D 画像 (CIFAR10, CIFAR100, MiniImageNet, MNIST, PermutedMNIST, notMNIST, SVHN, FashionMNIST) の認識タスクについて検討し, 既存の手法と公正に比較した強力なベースライン結果を確立する。
2Dドメインと3Dドメインの両方において、SANはタスクインクリメンタルな設定において、主に異なるタスクオーダの影響を受けない。
関連論文リスト
- Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Neural Weight Search for Scalable Task Incremental Learning [6.413209417643468]
タスクインクリメンタル学習は,新たなタスクを学習しながら,それまでの学習したタスクのパフォーマンスを維持することを目的として,破滅的な忘れを解消する。
有望なアプローチの1つは、将来のタスクのために個々のネットワークやサブネットワークを構築することである。
これにより、新しいタスクに対する余分な負担を省き、この問題に対処する方法がタスクインクリメンタルな学習においてオープンな問題として残されているため、メモリの増大が続く。
論文 参考訳(メタデータ) (2022-11-24T23:30:23Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - GROWN: GRow Only When Necessary for Continual Learning [39.56829374809613]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、新しいタスクを学ぶ際に、以前のタスクに関する知識を忘れてしまう。
この問題に対処するために、新しいタスクを逐次学習し、忘れずに古いタスクから新しいタスクへの知識伝達を行う連続学習が開発された。
GROWNは、必要な時にのみモデルを動的に成長させる、新しいエンドツーエンドの継続的学習フレームワークである。
論文 参考訳(メタデータ) (2021-10-03T02:31:04Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - SpaceNet: Make Free Space For Continual Learning [15.914199054779438]
本研究では,クラスインクリメンタル学習シナリオのための新しいアーキテクチャベースのSpaceNetを提案する。
SpaceNetは、複数のニューロンで各タスクのスパース接続を圧縮する適応的な方法で、スクラッチから深層ニューラルネットワークを訓練する。
実験により,従来のタスクを忘れることに対する提案手法のロバストさと,モデルが利用可能な容量を利用する場合のSpaceNetの効率性を示す。
論文 参考訳(メタデータ) (2020-07-15T11:21:31Z) - Continual Learning Using Multi-view Task Conditional Neural Networks [6.27221711890162]
従来のディープラーニングモデルは、複数のタスクを逐次学習する能力に制限がある。
再帰的なタスクを事前に知る必要のないマルチビュータスク条件ニューラルネットワーク(Mv-TCNN)を提案する。
論文 参考訳(メタデータ) (2020-05-08T01:03:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。