論文の概要: Knowledge Transfer-Driven Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2306.10942v1
- Date: Mon, 19 Jun 2023 14:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:37:41.484658
- Title: Knowledge Transfer-Driven Few-Shot Class-Incremental Learning
- Title(参考訳): 知識伝達駆動型Few-Shotクラスインクリメンタルラーニング
- Authors: Ye Wang, Yaxiong Wang, Guoshuai Zhao, and Xueming Qian
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、古いクラスを忘れずに、いくつかのサンプルを使用して新しいクラスを継続的に学習することを目的としている。
既存のFSCIL手法の進歩にもかかわらず、モデルの可塑性の最適化が不十分なため、提案手法は準最適である。
本稿では,多種多様な擬似的漸進的タスクをエージェントとして頼りにし,知識伝達を実現するランダムエピソードサンプリング・拡張(RESA)戦略を提案する。
- 参考スコア(独自算出の注目度): 23.163459923345556
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to continually learn new
classes using a few samples while not forgetting the old classes. The key of
this task is effective knowledge transfer from the base session to the
incremental sessions. Despite the advance of existing FSCIL methods, the
proposed knowledge transfer learning schemes are sub-optimal due to the
insufficient optimization for the model's plasticity. To address this issue, we
propose a Random Episode Sampling and Augmentation (RESA) strategy that relies
on diverse pseudo incremental tasks as agents to achieve the knowledge
transfer. Concretely, RESA mimics the real incremental setting and constructs
pseudo incremental tasks globally and locally, where the global pseudo
incremental tasks are designed to coincide with the learning objective of FSCIL
and the local pseudo incremental tasks are designed to improve the model's
plasticity, respectively. Furthermore, to make convincing incremental
predictions, we introduce a complementary model with a squared
Euclidean-distance classifier as the auxiliary module, which couples with the
widely used cosine classifier to form our whole architecture. By such a way,
equipped with model decoupling strategy, we can maintain the model's stability
while enhancing the model's plasticity. Extensive quantitative and qualitative
experiments on three popular FSCIL benchmark datasets demonstrate that our
proposed method, named Knowledge Transfer-driven Relation Complementation
Network (KT-RCNet), outperforms almost all prior methods. More precisely, the
average accuracy of our proposed KT-RCNet outperforms the second-best method by
a margin of 5.26%, 3.49%, and 2.25% on miniImageNet, CIFAR100, and CUB200,
respectively. Our code is available at
https://github.com/YeZiLaiXi/KT-RCNet.git.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、古いクラスを忘れずにいくつかのサンプルを使用して新しいクラスを継続的に学習することを目的としている。
このタスクの鍵は、ベースセッションからインクリメンタルセッションへの効果的な知識転送である。
既存のFSCIL手法の進歩にもかかわらず、モデルの可塑性の最適化が不十分なため、提案手法は準最適である。
この問題に対処するために,多種多様な擬似増分課題をエージェントとして生かし,知識伝達を実現するランダム・エピソードサンプリング・拡張(RESA)戦略を提案する。
具体的には、RESAは実際のインクリメンタルな設定を模倣し、グローバルな擬似的なインクリメンタルなタスクをFSCILの学習目的に合わせて設計し、ローカルな擬似インクリメンタルなタスクをモデルの可塑性を改善するために設計する。
さらに,逐次予測を説得するために,二乗ユークリッド距離分類器を補助モジュールとする補完モデルを導入し,広範に使用されるコサイン分類器と結合してアーキテクチャ全体を形成する。
このように、モデル分離戦略を備えて、モデルの可塑性を高めながら、モデルの安定性を維持することができる。
3つのfscilベンチマークデータセットに関する広範囲な定量的・定性的実験により,提案手法であるkt-rcnetが従来の手法よりも優れていた。
より正確には、提案したKT-RCNetの平均精度は、miniImageNet、CIFAR100、CUB200でそれぞれ5.26%、3.49%、および2.25%のマージンで2番目に良い方法より優れている。
私たちのコードはhttps://github.com/YeZiLaiXi/KT-RCNet.gitで公開されています。
関連論文リスト
- Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。