論文の概要: On the Limitation and Experience Replay for GNNs in Continual Learning
- arxiv url: http://arxiv.org/abs/2302.03534v2
- Date: Tue, 9 Jul 2024 08:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 00:50:53.090825
- Title: On the Limitation and Experience Replay for GNNs in Continual Learning
- Title(参考訳): 連続学習におけるGNNの限界と経験リプレイについて
- Authors: Junwei Su, Difan Zou, Chuan Wu,
- Abstract要約: 継続的な学習は、一連のタスクから徐々に情報を取得するモデルに力を与えようとしている。
最近の研究は、ノードワイドグラフ連続学習(NGCL)におけるグラフニューラルネットワーク(GNN)の探索の急増を目撃している。
本稿では,NGCLにおけるGNNの学習可能性に関する理論的考察を紹介する。
- 参考スコア(独自算出の注目度): 19.995877680083105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning seeks to empower models to progressively acquire information from a sequence of tasks. This approach is crucial for many real-world systems, which are dynamic and evolve over time. Recent research has witnessed a surge in the exploration of Graph Neural Networks (GNN) in Node-wise Graph Continual Learning (NGCL), a practical yet challenging paradigm involving the continual training of a GNN on node-related tasks. Despite recent advancements in continual learning strategies for GNNs in NGCL, a thorough theoretical understanding, especially regarding its learnability, is lacking. Learnability concerns the existence of a learning algorithm that can produce a good candidate model from the hypothesis/weight space, which is crucial for model selection in NGCL development. This paper introduces the first theoretical exploration of the learnability of GNN in NGCL, revealing that learnability is heavily influenced by structural shifts due to the interconnected nature of graph data. Specifically, GNNs may not be viable for NGCL under significant structural changes, emphasizing the need to manage structural shifts. To mitigate the impact of structural shifts, we propose a novel experience replay method termed Structure-Evolution-Aware Experience Replay (SEA-ER). SEA-ER features an innovative experience selection strategy that capitalizes on the topological awareness of GNNs, alongside a unique replay strategy that employs structural alignment to effectively counter catastrophic forgetting and diminish the impact of structural shifts on GNNs in NGCL. Our extensive experiments validate our theoretical insights and the effectiveness of SEA-ER.
- Abstract(参考訳): 継続的な学習は、一連のタスクから徐々に情報を取得するモデルに力を与えようとしている。
このアプローチは、時間とともに動的かつ進化する多くの現実世界システムにとって、不可欠である。
最近の研究は、ノード関連タスクにおけるGNNの継続的なトレーニングを含む実用的かつ困難なパラダイムであるNGCL(Graph-wise Graph Continual Learning)におけるグラフニューラルネットワーク(GNN)の探索が急増しているのを目撃している。
NGCLにおけるGNNの継続的な学習戦略の進歩にもかかわらず、特に学習可能性に関する詳細な理論的理解は欠如している。
学習可能性とは、NGCL開発においてモデル選択に不可欠である仮説/重み空間から優れた候補モデルを生成することができる学習アルゴリズムの存在に関するものである。
本稿では,NGCLにおけるGNNの学習可能性に関する最初の理論的考察を紹介する。
特に、GNNは、大きな構造変化の下でNGCLに対して有効ではない可能性があり、構造変化を管理する必要性を強調している。
本研究では,構造変化の影響を軽減するために,SEA-ER(Structure-Evolution-Aware Experience Replay)と呼ばれる新しい体験再生手法を提案する。
SEA-ERは、GNNのトポロジカルな認識を生かした革新的な体験選択戦略と、構造的アライメントを利用した独自のリプレイ戦略を特徴としている。
本研究はSEA-ERの理論的知見と有効性を検証するものである。
関連論文リスト
- On the Topology Awareness and Generalization Performance of Graph Neural Networks [6.598758004828656]
我々は,GNNのトポロジ的認識をいかなるトポロジ的特徴においても特徴付けるための包括的枠組みを導入する。
本研究は,各ベンチマークデータセットの経路距離を最短とする内在グラフを用いたケーススタディである。
論文 参考訳(メタデータ) (2024-03-07T13:33:30Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Rethinking Causal Relationships Learning in Graph Neural Networks [24.7962807148905]
本稿では,GNNの因果学習能力を高めるために,軽量で適応可能なGNNモジュールを提案する。
提案モジュールの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-15T08:54:32Z) - Exploring Causal Learning through Graph Neural Networks: An In-depth
Review [12.936700685252145]
因果関係の研究に用いられている様々な最先端のGNN手法を包含する新しい分類法を提案する。
GNNは、その因果領域における応用に基づいてさらに分類される。
このレビューは、多様な分野にわたる因果学習の適用にも触れている。
論文 参考訳(メタデータ) (2023-11-25T10:46:06Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Evolutionary Architecture Search for Graph Neural Networks [23.691915813153496]
本稿では,大規模グラフニューラルネットワーク(GNN)アーキテクチャ空間における個々のモデルの進化を通じて,新しいAutoMLフレームワークを提案する。
我々の知る限りでは、GNNモデルの進化的アーキテクチャ探索を導入し、評価する最初の試みである。
論文 参考訳(メタデータ) (2020-09-21T22:11:53Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。