論文の概要: Few-Shot Class-Incremental Learning with Prior Knowledge
- arxiv url: http://arxiv.org/abs/2402.01201v1
- Date: Fri, 2 Feb 2024 08:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:26:39.645653
- Title: Few-Shot Class-Incremental Learning with Prior Knowledge
- Title(参考訳): 先行知識を用いたクラスインクリメンタル学習
- Authors: Wenhao Jiang, Duo Li, Menghan Hu, Guangtao Zhai, Xiaokang Yang,
Xiao-Ping Zhang
- Abstract要約: 本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
- 参考スコア(独自算出の注目度): 94.95569068211195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To tackle the issues of catastrophic forgetting and overfitting in few-shot
class-incremental learning (FSCIL), previous work has primarily concentrated on
preserving the memory of old knowledge during the incremental phase. The role
of pre-trained model in shaping the effectiveness of incremental learning is
frequently underestimated in these studies. Therefore, to enhance the
generalization ability of the pre-trained model, we propose Learning with Prior
Knowledge (LwPK) by introducing nearly free prior knowledge from a few
unlabeled data of subsequent incremental classes. We cluster unlabeled
incremental class samples to produce pseudo-labels, then jointly train these
with labeled base class samples, effectively allocating embedding space for
both old and new class data. Experimental results indicate that LwPK
effectively enhances the model resilience against catastrophic forgetting, with
theoretical analysis based on empirical risk minimization and class distance
measurement corroborating its operational principles. The source code of LwPK
is publicly available at: \url{https://github.com/StevenJ308/LwPK}.
- Abstract(参考訳): 数ショットのクラスインクリメンタルラーニング(FSCIL)における破滅的な忘れと過度な適合の問題に対処するために、これまでの研究は主に、段階的な段階における古い知識の記憶の保存に集中してきた。
インクリメンタル学習の有効性形成における事前学習モデルの役割は,これらの研究でしばしば過小評価される。
そこで本論文では,事前学習モデルの一般化能力を高めるために,後続のインクリメンタルクラスのラベルなしデータからほぼ自由事前知識を導入することにより,事前知識を用いた学習を提案する。
ラベルなしのインクリメンタルなクラスサンプルをクラスタして擬似ラベルを生成し、ラベル付きベースクラスサンプルと共同でトレーニングし、古いクラスデータと新しいクラスデータの両方の埋め込みスペースを効果的に割り当てます。
実験結果から,lwpkは,実証的リスク最小化とクラス距離測定に基づく理論的解析により,破滅的忘れることに対するモデルの弾力性が効果的に向上することが示唆された。
LwPKのソースコードは: \url{https://github.com/StevenJ308/LwPK} で公開されている。
関連論文リスト
- An Efficient Replay for Class-Incremental Learning with Pre-trained Models [0.0]
授業増分学習では,各クラス中心で案内される重み間の定常状態が破壊され,忘れることと大きく相関する。
忘れを克服する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T11:26:28Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - An Analysis of Initial Training Strategies for Exemplar-Free
Class-Incremental Learning [36.619804184427245]
CIL(Class-Incremental Learning)は、データストリームから分類モデルを構築することを目的としている。
破滅的な忘れ物のため、過去のクラスの例を保存できない場合、CILは特に困難である。
大量のデータに対する自己管理的な方法で事前訓練されたモデルの使用は、最近勢いを増している。
論文 参考訳(メタデータ) (2023-08-22T14:06:40Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。