論文の概要: Is Class-Incremental Enough for Continual Learning?
- arxiv url: http://arxiv.org/abs/2112.02925v1
- Date: Mon, 6 Dec 2021 10:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:05:15.809425
- Title: Is Class-Incremental Enough for Continual Learning?
- Title(参考訳): クラスインクリメンタルは継続的学習に十分か?
- Authors: Andrea Cossu, Gabriele Graffieti, Lorenzo Pellegrini, Davide Maltoni,
Davide Bacciu, Antonio Carta, Vincenzo Lomonaco
- Abstract要約: クラス増進シナリオへの過剰な注力は、今後の継続的な学習研究に限界をもたらす可能性があると我々は主張する。
多くの実世界の環境では、以前に遭遇した概念の反復が自然に発生し、以前の知識の破壊を和らげるのに寄与する。
我々は、入力情報のストリームにおける設計によって繰り返しが統合される、代替的な連続学習シナリオに関するより深い研究を提唱する。
- 参考スコア(独自算出の注目度): 15.907038754784603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of a model to learn continually can be empirically assessed in
different continual learning scenarios. Each scenario defines the constraints
and the opportunities of the learning environment. Here, we challenge the
current trend in the continual learning literature to experiment mainly on
class-incremental scenarios, where classes present in one experience are never
revisited. We posit that an excessive focus on this setting may be limiting for
future research on continual learning, since class-incremental scenarios
artificially exacerbate catastrophic forgetting, at the expense of other
important objectives like forward transfer and computational efficiency. In
many real-world environments, in fact, repetition of previously encountered
concepts occurs naturally and contributes to softening the disruption of
previous knowledge. We advocate for a more in-depth study of alternative
continual learning scenarios, in which repetition is integrated by design in
the stream of incoming information. Starting from already existing proposals,
we describe the advantages such class-incremental with repetition scenarios
could offer for a more comprehensive assessment of continual learning models.
- Abstract(参考訳): モデルが継続的に学習する能力は、異なる連続学習シナリオで経験的に評価することができる。
それぞれのシナリオは、学習環境の制約と機会を定義します。
ここでは、継続学習文学における現在の傾向に挑戦し、主に1つの経験に現れるクラスを再考しないクラス増進シナリオを実験する。
この設定への過度な注力は、転送や計算効率といった他の重要な目的を犠牲にして、クラス増分シナリオが破滅的な忘れを人工的に悪化させるため、将来の継続的な学習研究に限定する可能性があると仮定する。
多くの現実の環境では、実際に遭遇した概念の繰り返しは自然に起こり、以前の知識の破壊を和らげるのに寄与する。
我々は、繰り返しが入力情報の流れの中で設計によって統合される代替連続学習シナリオのより深い研究を提唱する。
既存の提案から、反復シナリオによるクラス増分が、継続学習モデルのより包括的な評価に役立てることができるという利点を述べる。
関連論文リスト
- Towards Few-Shot Learning in the Open World: A Review and Beyond [52.41344813375177]
少ないショット学習は、人間の知性を模倣し、大きな一般化と伝達性を実現することを目的としている。
本稿では,FSLをオープンワールド環境に適用するための最近の進歩について概説する。
既存の手法は,3つの異なるタイプのオープンワールド・マイクロショット・ラーニングに分類する。
論文 参考訳(メタデータ) (2024-08-19T06:23:21Z) - Decision Boundary-aware Knowledge Consolidation Generates Better Instance-Incremental Learner [41.462673126500974]
インスタンス・インクリメンタル・ラーニング(IIL)は、同じクラスのデータで継続的に学習することに焦点を当てている。
そこで本研究では,教師に知識を集中させ,新たな知識を習得し易くするための新しい意思決定境界対応蒸留法を提案する。
論文 参考訳(メタデータ) (2024-06-05T08:49:51Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - An Empirical Investigation of the Role of Pre-training in Lifelong
Learning [21.995593026269578]
複数のタスクを逐次学習する際の破滅的忘れの影響を,ジェネリック事前学習が暗黙的に軽減することを示す。
本研究では、この現象を損失景観を解析し、トレーニング済みの重みがより広いミニマへと導くことで忘れやすいように見えることを明らかにする。
論文 参考訳(メタデータ) (2021-12-16T19:00:55Z) - Contrastive Continual Learning with Feature Propagation [32.70482982044965]
連続した機械学習者は、異なるタスク間でドメインやクラスシフトを伴うタスクのストリームを寛大に学習する。
本稿では,複数の連続学習シナリオを処理可能な特徴伝達に基づくコントラスト型連続学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T04:55:28Z) - Adaptive Explainable Continual Learning Framework for Regression
Problems with Focus on Power Forecasts [0.0]
この文脈における潜在的な課題を説明するために、2つの連続的な学習シナリオが提案される。
ディープニューラルネットワークは、新しいタスクを学習し、アプリケーションのデータ量が増加し続けるにつれて、古いタスクから得た知識を忘れないようにしなければならない。
研究トピックは関連しているが、連続的なディープラーニングアルゴリズムの開発、データストリームにおける非定常検出戦略、説明可能で可視化可能な人工知能などに限定されていない。
論文 参考訳(メタデータ) (2021-08-24T14:59:10Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Insights from the Future for Continual Learning [45.58831178202245]
我々は,授業データに先立って,授業に関する既存の情報を組み込むための,新しい実験環境である先進的連続学習を提案する。
私たちの設定には、トレーニングサンプルがまったくない将来のクラスが追加されます。
損失を慎重に調整した表現空間の生成モデルにより、将来のクラスからの洞察を利用して過去のクラスと現在のクラスの空間配置を制約することができる。
論文 参考訳(メタデータ) (2020-06-24T14:05:45Z) - Deep Reinforcement Learning amidst Lifelong Non-Stationarity [67.24635298387624]
政治以外のRLアルゴリズムは、寿命の長い非定常性に対処できることを示す。
提案手法は潜在変数モデルを用いて,現在および過去の経験から環境表現を学習する。
また, 生涯の非定常性を示すシミュレーション環境もいくつか導入し, 環境変化を考慮しないアプローチを著しく上回っていることを実証的に確認した。
論文 参考訳(メタデータ) (2020-06-18T17:34:50Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。