論文の概要: An Efficient Memory Module for Graph Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2411.06659v1
- Date: Mon, 11 Nov 2024 01:53:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:11:34.579865
- Title: An Efficient Memory Module for Graph Few-Shot Class-Incremental Learning
- Title(参考訳): グラフFew-Shotクラスインクリメンタル学習のための効率的なメモリモジュール
- Authors: Dong Li, Aijia Zhang, Junqi Gao, Biqing Qi,
- Abstract要約: 本稿では,メモリの効率的な構築と保守方法であるMecoinを紹介する。
Mecoinは学習カテゴリのプロトタイプをキャッシュするために構造化メモリユニットを使用している。
メモリ表現適応モジュールは、各クラスのプロトタイプに関連する確率を格納する。
- 参考スコア(独自算出の注目度): 5.071095594872717
- License:
- Abstract: Incremental graph learning has gained significant attention for its ability to address the catastrophic forgetting problem in graph representation learning. However, traditional methods often rely on a large number of labels for node classification, which is impractical in real-world applications. This makes few-shot incremental learning on graphs a pressing need. Current methods typically require extensive training samples from meta-learning to build memory and perform intensive fine-tuning of GNN parameters, leading to high memory consumption and potential loss of previously learned knowledge. To tackle these challenges, we introduce Mecoin, an efficient method for building and maintaining memory. Mecoin employs Structured Memory Units to cache prototypes of learned categories, as well as Memory Construction Modules to update these prototypes for new categories through interactions between the nodes and the cached prototypes. Additionally, we have designed a Memory Representation Adaptation Module to store probabilities associated with each class prototype, reducing the need for parameter fine-tuning and lowering the forgetting rate. When a sample matches its corresponding class prototype, the relevant probabilities are retrieved from the MRaM. Knowledge is then distilled back into the GNN through a Graph Knowledge Distillation Module, preserving the model's memory. We analyze the effectiveness of Mecoin in terms of generalization error and explore the impact of different distillation strategies on model performance through experiments and VC-dimension analysis. Compared to other related works, Mecoin shows superior performance in accuracy and forgetting rate. Our code is publicly available on the https://github.com/Arvin0313/Mecoin-GFSCIL.git .
- Abstract(参考訳): 増分グラフ学習は、グラフ表現学習における破滅的な忘れの問題に対処する能力において大きな注目を集めている。
しかし、従来の手法はノード分類に多くのラベルを頼りにしており、これは現実のアプリケーションでは実用的ではない。
これにより、グラフの漸進的な学習が押し付けの必要に迫られる。
現在の手法では、メモリ構築やGNNパラメータの集中的な微調整を行うために、メタラーニングからの広範なトレーニングサンプルが必要である。
これらの課題に対処するために,メモリの効率的な構築と保守方法であるMecoinを紹介した。
Mecoinは学習したカテゴリのプロトタイプをキャッシュするためにStructured Memory Unitsを使用し、メモリ構築モジュールはノードとキャッシュされたプロトタイプ間のインタラクションを通じて新しいカテゴリのプロトタイプを更新する。
さらに,各クラスプロトタイプに関連する確率を格納するメモリ表現適応モジュールを設計した。
サンプルが対応するクラスプロトタイプにマッチすると、関連する確率がMRaMから取得される。
知識はグラフ知識蒸留モジュールを通じてGNNに蒸留され、モデルのメモリを保存する。
本稿では, 一般化誤差の観点からMecoinの有効性を解析し, 実験とVC次元分析を通じて, 異なる蒸留方法がモデル性能に与える影響について検討する。
他の関連する作品と比較して、Mecoinは精度と忘れる速度で優れたパフォーマンスを示している。
私たちのコードはhttps://github.com/Arvin0313/Mecoin-GFSCIL.gitで公開されています。
関連論文リスト
- Graph Memory Learning: Imitating Lifelong Remembering and Forgetting of Brain Networks [31.554027786868815]
本稿では,BGML(Brain-inspired Graph Memory Learning)というグラフメモリ学習の新たな概念を紹介する。
BGMLは、記憶と忘れの潜在的な衝突を軽減するために、特徴グラフの粒度学習に根ざした多階層的階層的漸進学習機構を組み込んでいる。
さらに,新たに追加されるインクリメンタル情報における信頼できない構造の問題に対処するために,情報自己評価のオーナシップ機構を提案する。
論文 参考訳(メタデータ) (2024-07-27T05:50:54Z) - GraphFM: A Comprehensive Benchmark for Graph Foundation Model [33.157367455390144]
ファンデーション・モデル(FM)は、人工知能システムの開発のための一般的なクラスである。
FMの基礎として自己教師型学習の研究が盛んに行われたが、いくつかの顕著な問題が続いている。
下流タスクにおける一般化能力の程度は未だ不明である。
これらのモデルが大規模なデータセットにどの程度効果的にスケールできるかは不明だ。
論文 参考訳(メタデータ) (2024-06-12T15:10:44Z) - Holistic Memory Diversification for Incremental Learning in Growing Graphs [16.483780704430405]
目標は、以前のタスクに対する推論能力を維持しながら、新しいタスクを処理するためにグラフモデルを継続的にトレーニングすることだ。
既存の方法は、通常、メモリの多様性の重要性を無視し、以前のタスクから高品質なメモリを効果的に選択することを制限する。
本稿では,グラフにおける漸進的学習のための包括的メモリ選択・生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T16:18:15Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。