論文の概要: Online Class Incremental Learning on Stochastic Blurry Task Boundary via
Mask and Visual Prompt Tuning
- arxiv url: http://arxiv.org/abs/2308.09303v1
- Date: Fri, 18 Aug 2023 04:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 14:36:25.371608
- Title: Online Class Incremental Learning on Stochastic Blurry Task Boundary via
Mask and Visual Prompt Tuning
- Title(参考訳): Mask と Visual Prompt Tuning による確率的ブラリータスク境界のオンライン授業増分学習
- Authors: Jun-Yeong Moon, Keon-Hee Park, Jung Uk Kim and Gyeong-Moon Park
- Abstract要約: 継続的な学習は、連続したデータストリームからモデルを学習することを目的としていますが、主に、明確なタスク境界を持つ固定されたデータとタスクを前提としています。
実世界のシナリオでは、入力データやタスクの数は常に統計的に変化しており、静的ではない。
我々は,実世界の統計特性を反映した,Si-Blurryと呼ばれる新たなインクリメンタルBlurryタスクシナリオを提案する。
- 参考スコア(独自算出の注目度): 13.170099297210372
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual learning aims to learn a model from a continuous stream of data,
but it mainly assumes a fixed number of data and tasks with clear task
boundaries. However, in real-world scenarios, the number of input data and
tasks is constantly changing in a statistical way, not a static way. Although
recently introduced incremental learning scenarios having blurry task
boundaries somewhat address the above issues, they still do not fully reflect
the statistical properties of real-world situations because of the fixed ratio
of disjoint and blurry samples. In this paper, we propose a new Stochastic
incremental Blurry task boundary scenario, called Si-Blurry, which reflects the
stochastic properties of the real-world. We find that there are two major
challenges in the Si-Blurry scenario: (1) inter- and intra-task forgettings and
(2) class imbalance problem. To alleviate them, we introduce Mask and Visual
Prompt tuning (MVP). In MVP, to address the inter- and intra-task forgetting
issues, we propose a novel instance-wise logit masking and contrastive visual
prompt tuning loss. Both of them help our model discern the classes to be
learned in the current batch. It results in consolidating the previous
knowledge. In addition, to alleviate the class imbalance problem, we introduce
a new gradient similarity-based focal loss and adaptive feature scaling to ease
overfitting to the major classes and underfitting to the minor classes.
Extensive experiments show that our proposed MVP significantly outperforms the
existing state-of-the-art methods in our challenging Si-Blurry scenario.
- Abstract(参考訳): 継続的学習は、連続したデータストリームからモデルを学ぶことを目的としているが、主に、明確なタスク境界を持つ固定数のデータとタスクを想定している。
しかし、実際のシナリオでは、入力データとタスクの数は常に統計的に変化しており、静的な方法ではない。
最近、ぼやけたタスク境界を持つインクリメンタルな学習シナリオが導入されているが、不一致とぼやけたサンプルの比率が一定であるため、実世界の状況の統計的特性を完全に反映していない。
本稿では,実世界の確率的特性を反映した,Si-Blurryと呼ばれる確率的漸進的Blurryタスク境界シナリオを提案する。
si-blurryシナリオには,(1)タスク間およびタスク内リテクションと(2)クラス不均衡の問題という2つの大きな課題がある。
それらを緩和するために、MaskとVisual Prompt tuning (MVP)を紹介します。
mvpでは,タスク間およびタスク内忘れる問題に対処するため,新しいインスタンス間ロジットマスキングと対照的な視覚的プロンプトチューニング損失を提案する。
どちらも、モデルが現在のバッチで学習すべきクラスを識別するのに役立ちます。
その結果、以前の知識が統合される。
さらに,クラス不均衡の問題を軽減するため,新しい勾配類似性に基づく焦点損失と適応的特徴スケーリングを導入し,主要クラスへの過度な適合とマイナークラスへの過度な適合を容易にする。
大規模な実験の結果,提案したMVPは,既存の最先端手法よりも優れた性能を示すことがわかった。
関連論文リスト
- Enhancing Vision-Language Few-Shot Adaptation with Negative Learning [11.545127156146368]
我々は,タスク固有の知識をより効率的に活用するための,シンプルで効果的な否定的学習手法SimNLを提案する。
そこで本研究では,雑音を緩和するために,プラグアンドプレイによる数発のインスタンス再重み付け手法を提案する。
提案したSimNLは,少数ショット学習とドメイン一般化の両タスクにおいて,既存の最先端手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-19T17:59:39Z) - MCF-VC: Mitigate Catastrophic Forgetting in Class-Incremental Learning
for Multimodal Video Captioning [10.95493493610559]
マルチモーダルビデオキャプション(MCF-VC)のためのクラス増分学習におけるカタストロフィックフォーミングの軽減手法を提案する。
特徴レベルでの旧タスクと新タスクの知識特性をよりよく制約するために,2段階知識蒸留(TsKD)を作成した。
公開データセットMSR-VTTを用いた実験により,提案手法は古いサンプルを再生することなく過去のタスクを忘れることに対して著しく抵抗し,新しいタスクでうまく機能することを示した。
論文 参考訳(メタデータ) (2024-02-27T16:54:08Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。