論文の概要: Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning
- arxiv url: http://arxiv.org/abs/2310.20268v1
- Date: Tue, 31 Oct 2023 08:38:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 15:57:32.385344
- Title: Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning
- Title(参考訳): Few-Shot Class-Incremental Learningのためのサンプル-クラスグラフの構築
- Authors: Fuyuan Hu, Jian Zhang, Fan Lyu, Linyan Li, Fenglei Xu
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、いくつかのデータサンプルから新しい概念を継続的に学習するマシンラーニングモデルの構築を目的とする。
本稿では,FSCILのためのS2Cグラフ学習手法を提案する。
- 参考スコア(独自算出の注目度): 10.111587226277647
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to build machine learning
model that can continually learn new concepts from a few data samples, without
forgetting knowledge of old classes.
The challenges of FSCIL lies in the limited data of new classes, which not
only lead to significant overfitting issues but also exacerbates the notorious
catastrophic forgetting problems. As proved in early studies, building sample
relationships is beneficial for learning from few-shot samples. In this paper,
we promote the idea to the incremental scenario, and propose a Sample-to-Class
(S2C) graph learning method for FSCIL.
Specifically, we propose a Sample-level Graph Network (SGN) that focuses on
analyzing sample relationships within a single session. This network helps
aggregate similar samples, ultimately leading to the extraction of more refined
class-level features.
Then, we present a Class-level Graph Network (CGN) that establishes
connections across class-level features of both new and old classes. This
network plays a crucial role in linking the knowledge between different
sessions and helps improve overall learning in the FSCIL scenario. Moreover, we
design a multi-stage strategy for training S2C model, which mitigates the
training challenges posed by limited data in the incremental process.
The multi-stage training strategy is designed to build S2C graph from base to
few-shot stages, and improve the capacity via an extra pseudo-incremental
stage. Experiments on three popular benchmark datasets show that our method
clearly outperforms the baselines and sets new state-of-the-art results in
FSCIL.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、古いクラスの知識を忘れずに、少数のデータサンプルから新しい概念を継続的に学習できる機械学習モデルを構築することを目的としている。
fscilの課題は、新しいクラスの限られたデータであり、重大な過剰フィッティング問題につながるだけでなく、悪名高い破滅的な忘れる問題を悪化させる。
初期の研究で証明されたように、サンプル関係の構築は、少数のサンプルから学ぶのに有用である。
本稿では,このアイデアを段階的なシナリオへと推進し,FSCILのためのS2Cグラフ学習手法を提案する。
具体的には,サンプルレベルのグラフネットワーク(SGN)を提案する。
このネットワークは類似のサンプルの収集に役立ち、最終的にはより洗練されたクラスレベルの特徴の抽出に繋がる。
次に,新しいクラスと古いクラスのクラスレベル機能間の接続を確立するクラスレベルグラフネットワーク(cgn)を提案する。
このネットワークは、異なるセッション間で知識を結びつけ、fscilシナリオにおける全体的な学習を改善する上で重要な役割を果たす。
さらに,s2cモデルトレーニングのための多段階戦略を考案し,インクリメンタルプロセスにおける限られたデータによるトレーニング課題を軽減する。
マルチステージトレーニング戦略は、ベースから数ショットステージまでのS2Cグラフの構築と、追加の擬似インクリメンタルステージによるキャパシティ向上を目的としている。
一般的な3つのベンチマークデータセットの実験から,本手法は明らかにベースラインを上回り,FSCILにおける新たな最先端結果を設定する。
関連論文リスト
- Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Two-level Graph Network for Few-Shot Class-Incremental Learning [7.815043173207539]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
論文 参考訳(メタデータ) (2023-03-24T08:58:08Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。