論文の概要: Two-level Graph Network for Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2303.13862v1
- Date: Fri, 24 Mar 2023 08:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:17:48.034233
- Title: Two-level Graph Network for Few-Shot Class-Incremental Learning
- Title(参考訳): クラスインクリメンタル学習のための2段階グラフネットワーク
- Authors: Hao Chen, Linyan Li, Fan Lyu, Fuyuan Hu, Zhenping Xia and Fenglei Xu
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
既存のFSCILメソッドは、サンプルレベルとクラスレベルの意味関係を無視する。
本稿では,サンプルレベルとクラスレベルグラフニューラルネット(SCGN)というFSCIL用の2レベルグラフネットワークを設計した。
- 参考スコア(独自算出の注目度): 7.815043173207539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims to design machine learning
algorithms that can continually learn new concepts from a few data points,
without forgetting knowledge of old classes. The difficulty lies in that
limited data from new classes not only lead to significant overfitting issues
but also exacerbates the notorious catastrophic forgetting problems. However,
existing FSCIL methods ignore the semantic relationships between sample-level
and class-level. % Using the advantage that graph neural network (GNN) can mine
rich information among few samples, In this paper, we designed a two-level
graph network for FSCIL named Sample-level and Class-level Graph Neural Network
(SCGN). Specifically, a pseudo incremental learning paradigm is designed in
SCGN, which synthesizes virtual few-shot tasks as new tasks to optimize SCGN
model parameters in advance. Sample-level graph network uses the relationship
of a few samples to aggregate similar samples and obtains refined class-level
features. Class-level graph network aims to mitigate the semantic conflict
between prototype features of new classes and old classes. SCGN builds
two-level graph networks to guarantee the latent semantic of each few-shot
class can be effectively represented in FSCIL. Experiments on three popular
benchmark datasets show that our method significantly outperforms the baselines
and sets new state-of-the-art results with remarkable advantages.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、古いクラスの知識を忘れずに、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムを設計することを目的としている。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
しかし、既存のFSCILメソッドはサンプルレベルとクラスレベルの意味関係を無視している。
この論文では,サンプルレベルとクラスレベルのグラフニューラルネットワーク(SCGN, Sample-level and Class-level Graph Neural Network)という,FSCIL用の2レベルグラフネットワークを設計した。
具体的には、SCGNモデルパラメータを事前に最適化するための新しいタスクとして、仮想小ショットタスクを合成する擬似漸進学習パラダイムをSCGNで設計する。
サンプルレベルのグラフネットワークは、いくつかのサンプルの関係を利用して類似のサンプルを集約し、洗練されたクラスレベルの特徴を得る。
クラスレベルのグラフネットワークは、新しいクラスのプロトタイプ機能と古いクラスのセマンティックコンフリクトを軽減することを目的としている。
SCGNは2レベルグラフネットワークを構築し、各数ショットクラスの潜在意味をFSCILで効果的に表現できるようにする。
3つの人気のあるベンチマークデータセットの実験により、我々の手法はベースラインを著しく上回り、新しい最先端の成果を顕著な優位性で設定することを示した。
関連論文リスト
- Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Deep Dependency Networks and Advanced Inference Schemes for Multi-Label Classification [7.643377057724898]
我々は、ディープ・ディペンデンス・ネットワーク(DDN)と呼ばれる統合されたフレームワークを提案する。
DDNは依存ネットワークと深層学習アーキテクチャを組み合わせてマルチラベル分類を行う。
マルコフネットワークと比較してDDNの欠点は、高度な推論スキームがないことである。
論文 参考訳(メタデータ) (2024-04-17T18:04:37Z) - Constructing Sample-to-Class Graph for Few-Shot Class-Incremental
Learning [10.111587226277647]
FSCIL(Few-shot class-incremental Learning)は、いくつかのデータサンプルから新しい概念を継続的に学習するマシンラーニングモデルの構築を目的とする。
本稿では,FSCILのためのS2Cグラフ学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-31T08:38:14Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Looking back to lower-level information in few-shot learning [4.873362301533825]
本稿では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類精度を向上させることを提案する。
筆者らは,MiniImageNet と tieredImageNet という2つの人気の数点学習データセットを用いた実験を行い,この手法がネットワークの低レベル情報を利用して最先端の分類性能を向上できることを示した。
論文 参考訳(メタデータ) (2020-05-27T20:32:13Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。