論文の概要: New Insights on Relieving Task-Recency Bias for Online Class Incremental
Learning
- arxiv url: http://arxiv.org/abs/2302.08243v2
- Date: Wed, 18 Oct 2023 07:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 21:04:37.933645
- Title: New Insights on Relieving Task-Recency Bias for Online Class Incremental
Learning
- Title(参考訳): オンライン授業増分学習におけるタスク要求バイアスの救済に関する新しい視点
- Authors: Guoqiang Liang, Zhaojie Chen, Zhaoqiang Chen, Shiyu Ji, Yanning Zhang
- Abstract要約: あらゆる設定において、オンラインクラスインクリメンタルラーニング(OCIL)はより困難であり、現実世界でより頻繁に遭遇する可能性がある。
安定性と塑性のトレードオフに対処するため,Adaptive Focus Shiftingアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 37.888061221999294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To imitate the ability of keeping learning of human, continual learning which
can learn from a never-ending data stream has attracted more interests
recently. In all settings, the online class incremental learning (OCIL), where
incoming samples from data stream can be used only once, is more challenging
and can be encountered more frequently in real world. Actually, all continual
learning models face a stability-plasticity dilemma, where the stability means
the ability to preserve old knowledge while the plasticity denotes the ability
to incorporate new knowledge. Although replay-based methods have shown
exceptional promise, most of them concentrate on the strategy for updating and
retrieving memory to keep stability at the expense of plasticity. To strike a
preferable trade-off between stability and plasticity, we propose an Adaptive
Focus Shifting algorithm (AFS), which dynamically adjusts focus to ambiguous
samples and non-target logits in model learning. Through a deep analysis of the
task-recency bias caused by class imbalance, we propose a revised focal loss to
mainly keep stability. \Rt{By utilizing a new weight function, the revised
focal loss will pay more attention to current ambiguous samples, which are the
potentially valuable samples to make model progress quickly.} To promote
plasticity, we introduce a virtual knowledge distillation. By designing a
virtual teacher, it assigns more attention to non-target classes, which can
surmount overconfidence and encourage model to focus on inter-class
information. Extensive experiments on three popular datasets for OCIL have
shown the effectiveness of AFS. The code will be available at
\url{https://github.com/czjghost/AFS}.
- Abstract(参考訳): 人間の学習を継続する能力の模倣として、絶え間なく続くデータストリームから学習できる連続学習が近年注目を集めている。
すべての設定において、データストリームから入力されるサンプルを一度だけ使用可能なオンラインクラスインクリメンタルラーニング(OCIL)は、より困難で、現実世界でより頻繁に発生する可能性がある。
実際、全ての連続学習モデルは安定性と塑性のジレンマに直面し、安定性は古い知識を保存する能力を意味し、可塑性は新しい知識を組み込む能力を示す。
リプレイベースの手法は例外的な可能性を示したが、その多くは可塑性を犠牲にして安定性を維持するためにメモリを更新して取得する戦略に集中している。
安定性と可塑性のトレードオフに対処するため,モデル学習における不明瞭なサンプルや非ターゲットロジットへのフォーカスを動的に調整する適応型フォーカスシフトアルゴリズム(AFS)を提案する。
クラス不均衡に起因するタスク・レジデンスバイアスの深い分析を通じて,主に安定性を維持するために焦点損失の修正を提案する。
新しい重み関数を利用することで、修正された焦点損失は現在のあいまいなサンプルにより多くの注意を払うことになる。
可塑性を促進するため,仮想知識蒸留法を提案する。
仮想教師を設計することで、非ターゲットクラスにもっと注意を向け、過信を克服し、クラス間情報にフォーカスするようモデルに促す。
OCILの3つの一般的なデータセットに対する大規模な実験は、AFSの有効性を示した。
コードは \url{https://github.com/czjghost/AFS} で入手できる。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Branch-Tuning: Balancing Stability and Plasticity for Continual Self-Supervised Learning [33.560003528712414]
自己教師付き学習(SSL)は、膨大な量のラベルのないデータから一般的な表現を導出するための効果的なパラダイムとして登場した。
これは、新しい情報に適応する際の安定性と可塑性のバランスを崩すことに挑戦する。
本稿では,SSLの安定性と可塑性のバランスを両立させる手法であるブランチチューニングを提案する。
論文 参考訳(メタデータ) (2024-03-27T05:38:48Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - SRIL: Selective Regularization for Class-Incremental Learning [5.810252620242912]
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-05-09T05:04:35Z) - New Insights for the Stability-Plasticity Dilemma in Online Continual
Learning [21.664470275289407]
マルチスケール特徴適応ネットワーク(MuFAN)というオンライン連続学習フレームワークを提案する。
MuFANはSVHN、CIFAR100、miniImageNet、CORe50データセット上で、最先端の継続的な学習方法よりも優れている。
論文 参考訳(メタデータ) (2023-02-17T07:43:59Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Towards Better Plasticity-Stability Trade-off in Incremental Learning: A
simple Linear Connector [8.13916229438606]
塑性安定性ジレンマはインクリメンタルラーニングの主要な問題である。
本研究では,従来のタスクに対するヌルスペースプロジェクションと,現在のタスクに対する単純なSGDの2つの独立最適化されたネットワークの単純な平均化が,すでに学習した知識の保存と,新しいタスクの学習に十分な柔軟性を付与することとの有意義なバランスを達成可能であることを示す。
論文 参考訳(メタデータ) (2021-10-15T07:37:20Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。