論文の概要: A Topology-aware Graph Coarsening Framework for Continual Graph Learning
- arxiv url: http://arxiv.org/abs/2401.03077v1
- Date: Fri, 5 Jan 2024 22:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:33:43.449365
- Title: A Topology-aware Graph Coarsening Framework for Continual Graph Learning
- Title(参考訳): 連続グラフ学習のためのトポロジ対応グラフ粗大化フレームワーク
- Authors: Xiaoxue Han, Zhuo Feng, Yue Ning
- Abstract要約: グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
- 参考スコア(独自算出の注目度): 8.136809136959302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning on graphs tackles the problem of training a graph neural
network (GNN) where graph data arrive in a streaming fashion and the model
tends to forget knowledge from previous tasks when updating with new data.
Traditional continual learning strategies such as Experience Replay can be
adapted to streaming graphs, however, these methods often face challenges such
as inefficiency in preserving graph topology and incapability of capturing the
correlation between old and new tasks. To address these challenges, we propose
TA$\mathbb{CO}$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual
learning framework that stores information from previous tasks as a reduced
graph. At each time period, this reduced graph expands by combining with a new
graph and aligning shared nodes, and then it undergoes a "zoom out" process by
reduction to maintain a stable size. We design a graph coarsening algorithm
based on node representation proximities to efficiently reduce a graph and
preserve topological information. We empirically demonstrate the learning
process on the reduced graph can approximate that of the original graph. Our
experiments validate the effectiveness of the proposed framework on three
real-world datasets using different backbone GNN models.
- Abstract(参考訳): グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)をトレーニングする問題に対処する。
Experience Replayのような従来の連続学習戦略はストリーミンググラフに適用できるが、これらの手法はグラフトポロジの保存における非効率性や、古いタスクと新しいタスクの相関を捉えることができないといった課題に直面することが多い。
これらの課題に対処するため,我々は,従来のタスクからの情報を縮小グラフとして格納する(t)オポジロロジー-(a)ウェアグラフ (co)arseningおよび(co)ntinual learningフレームワークであるta$\mathbb{co}$を提案する。
それぞれの期間に、この縮小グラフは、新しいグラフと組み合わせて共有ノードを整合させることで拡大し、縮小によって「ズームアウト」プロセスを行い、安定したサイズを維持する。
ノード表現の近似に基づくグラフ粗化アルゴリズムを設計し,グラフを効率的に削減し,位相情報を保存する。
還元グラフ上の学習過程を実証的に示すことで,元のグラフを近似することができる。
本実験は,異なるバックボーンGNNモデルを用いた実世界の3つのデータセットに対するフレームワークの有効性を検証する。
関連論文リスト
- PUMA: Efficient Continual Graph Learning for Node Classification with Graph Condensation [49.00940417190911]
既存のグラフ表現学習モデルは、新しいグラフを学習する際に破滅的な問題に遭遇する。
本稿では,PUMA(PUdo-label guided Memory bAnkrogation)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T05:09:58Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Lifelong Graph Learning [6.282881904019272]
連続グラフ学習問題を正規グラフ学習問題に変換することにより、グラフ学習と生涯学習を橋渡しする。
機能グラフネットワーク(FGN)は,ウェアラブルデバイスを用いた生涯の人間行動認識と特徴マッチングという2つのアプリケーションにおいて,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-09-01T18:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。