論文の概要: DSLR: Diversity Enhancement and Structure Learning for Rehearsal-based
Graph Continual Learning
- arxiv url: http://arxiv.org/abs/2402.13711v3
- Date: Fri, 23 Feb 2024 05:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 11:52:58.001438
- Title: DSLR: Diversity Enhancement and Structure Learning for Rehearsal-based
Graph Continual Learning
- Title(参考訳): dslr:リハーサルベースグラフ連続学習のための多様性向上と構造学習
- Authors: Seungyoon Choi, Wonjoong Kim, Sungwon Kim, Yeonjun In, Sein Kim,
Chanyoung Park
- Abstract要約: 本稿では,グラフ学習法(GCL)におけるリハーサルベースアプローチにおけるリプレイバッファについて検討する。
本稿では,DSLR という名前の GCL モデルを提案する。具体的には,クラスの代表性と各クラスにおける多様性を両立させるために,カバレッジベース多様性 (CD) アプローチを考案する。
- 参考スコア(独自算出の注目度): 21.12427159666129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the replay buffer in rehearsal-based approaches for graph
continual learning (GCL) methods. Existing rehearsal-based GCL methods select
the most representative nodes for each class and store them in a replay buffer
for later use in training subsequent tasks. However, we discovered that
considering only the class representativeness of each replayed node makes the
replayed nodes to be concentrated around the center of each class, incurring a
potential risk of overfitting to nodes residing in those regions, which
aggravates catastrophic forgetting. Moreover, as the rehearsal-based approach
heavily relies on a few replayed nodes to retain knowledge obtained from
previous tasks, involving the replayed nodes that have irrelevant neighbors in
the model training may have a significant detrimental impact on model
performance. In this paper, we propose a GCL model named DSLR, specifically, we
devise a coverage-based diversity (CD) approach to consider both the class
representativeness and the diversity within each class of the replayed nodes.
Moreover, we adopt graph structure learning (GSL) to ensure that the replayed
nodes are connected to truly informative neighbors. Extensive experimental
results demonstrate the effectiveness and efficiency of DSLR. Our source code
is available at https://github.com/seungyoon-Choi/DSLR_official.
- Abstract(参考訳): グラフ連続学習法(GCL)におけるリハーサルベースアプローチにおけるリプレイバッファの検討を行った。
既存のリハーサルベースのGCLメソッドは、各クラスの最も代表的なノードを選択し、後続のタスクをトレーニングするためにリプレイバッファに保存する。
しかし,各リプレイノードのクラス代表性のみを考慮すれば,リプレイノードが各クラスの中心に集中することになり,その領域に存在するノードに過度に適合する可能性があり,破滅的な忘れが悪化することがわかった。
さらに、リハーサルベースのアプローチは、過去のタスクから得られた知識を保持するために、いくつかのリプレイノードに大きく依存しているため、モデルトレーニングに非関連な隣人を持つリプレイノードは、モデルパフォーマンスに重大な有害な影響を及ぼす可能性がある。
本稿では,dslrと呼ばれるgclモデルを提案する。具体的には,各ノードのクラスにおけるクラス代表性と多様性を検討するためのカバレッジベース多様性(cd)アプローチを考案する。
さらに, グラフ構造学習(GSL)を用いて, 再生ノードが真に情報のある隣人に接続されていることを保証する。
実験の結果,DSLRの有効性と有効性を示した。
ソースコードはhttps://github.com/seungyoon-choi/dslr_officialで入手できます。
関連論文リスト
- Long-tail Augmented Graph Contrastive Learning for Recommendation [16.114255092924488]
本稿では,Long-tail Augmented Graph Contrastive Learning (LAGCL)法を提案する。
具体的には、予測された隣接情報を補うことで、尾ノードを強化するための学習可能な長尾拡張手法を提案する。
3つのベンチマークデータセットで行った実験は、我々のモデルの性能を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-09-20T09:57:20Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Node Representation Learning in Graph via Node-to-Neighbourhood Mutual
Information Maximization [27.701736055800314]
グラフにおける情報ノード表現の学習の鍵は、近隣からコンテキスト情報を得る方法にある。
本稿では,ノードの隠蔽表現と周辺領域の相互情報を直接的に最大化することで,自己教師付きノード表現学習戦略を提案する。
我々のフレームワークは、表現学習の質と効率を裏付ける正の選択が相反する比較的損失によって最適化されている。
論文 参考訳(メタデータ) (2022-03-23T08:21:10Z) - Graph Neural Network with Curriculum Learning for Imbalanced Node
Classification [21.085314408929058]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフベースの学習タスクの新興技術である。
本研究では,ノードラベルの不均衡に対するGNNの脆弱性を明らかにする。
本稿では,2つのモジュールからなるカリキュラム学習(GNN-CL)を備えたグラフニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-05T10:46:11Z) - Non-Recursive Graph Convolutional Networks [33.459371861932574]
非再帰グラフ畳み込みネットワーク(NRGCN)と呼ばれる新しいアーキテクチャを提案し、GCNのトレーニング効率と学習パフォーマンスの両方を改善します。
NRGCNは、内部層凝集と層非依存サンプリングに基づいて、各ノードの隣人のホップを表す。
このようにして、各ノードは、隣人の各ホップから独立して抽出された情報を連結することで直接表現することができる。
論文 参考訳(メタデータ) (2021-05-09T08:12:18Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z) - Graph Neighborhood Attentive Pooling [0.5493410630077189]
ネットワーク表現学習(NRL)は,高次元およびスパースグラフの低次元ベクトル表現を学習するための強力な手法である。
本稿では,ノード近傍の異なる部分への入場を注意型プールネットワークを用いて学習するGAPと呼ばれる新しい文脈依存アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-28T15:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。