論文の概要: Disentangle-based Continual Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2010.02565v4
- Date: Tue, 24 Nov 2020 06:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:13:09.927460
- Title: Disentangle-based Continual Graph Representation Learning
- Title(参考訳): 異角形に基づく連続グラフ表現学習
- Authors: Xiaoyu Kou, Yankai Lin, Shaobo Liu, Peng Li, Jie Zhou, Yan Zhang
- Abstract要約: グラフ埋め込み(GE)メソッドは、グラフ内のノード(および/またはエッジ)を低次元の意味空間に埋め込む。
既存のGEモデルは、受信データのストリーミング特性を見落としているため、現実のアプリケーションでは実用的ではない。
本稿では,人間の手続き的知識の学習能力に触発された,アンタングルに基づく連続グラフ表現学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 32.081943985875554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph embedding (GE) methods embed nodes (and/or edges) in graph into a
low-dimensional semantic space, and have shown its effectiveness in modeling
multi-relational data. However, existing GE models are not practical in
real-world applications since it overlooked the streaming nature of incoming
data. To address this issue, we study the problem of continual graph
representation learning which aims to continually train a GE model on new data
to learn incessantly emerging multi-relational data while avoiding
catastrophically forgetting old learned knowledge. Moreover, we propose a
disentangle-based continual graph representation learning (DiCGRL) framework
inspired by the human's ability to learn procedural knowledge. The experimental
results show that DiCGRL could effectively alleviate the catastrophic
forgetting problem and outperform state-of-the-art continual learning models.
- Abstract(参考訳): グラフ埋め込み(GE)法は,ノード(およびエッジ)を低次元のセマンティック空間に埋め込むことで,マルチリレーショナルデータのモデリングに有効であることを示す。
しかし、既存のGEモデルは、受信データのストリーミング特性を見落としているため、現実のアプリケーションでは実用的ではない。
そこで本研究では,GEモデルを新しいデータで継続的に訓練し,不必要に出現するマルチリレーショナルデータを学習することを目的とした連続グラフ表現学習の課題について検討する。
さらに,人間の手続き的知識を学習する能力に触発されたディスタンタングルに基づく連続グラフ表現学習(dicgrl)フレームワークを提案する。
実験の結果, dicgrlは, 壊滅的な記憶喪失問題を効果的に軽減し, 最先端の連続学習モデルよりも優れていた。
関連論文リスト
- Continual Learning on Graphs: Challenges, Solutions, and Opportunities [72.7886669278433]
本稿では,既存の連続グラフ学習(CGL)アルゴリズムの総合的なレビューを行う。
従来の連続学習手法と比較し,従来の連続学習手法の適用性を分析した。
アクセス可能なアルゴリズムの包括的なリストを含む、最新のリポジトリを維持します。
論文 参考訳(メタデータ) (2024-02-18T12:24:45Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - PUMA: Efficient Continual Graph Learning with Graph Condensation [52.5795409793467]
連続グラフ学習は、静的グラフからストリーミンググラフへのグラフ表現学習を可能にする新しいパラダイムである。
これまでの作業であるCaTは、バランスの取れた継続的な学習手順を備えたリプレイベースのフレームワークです。
本稿では,その効率性と有効性を高めるため,pusdo-label guided memory bank (PUMA) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T05:09:58Z) - Spatial-Temporal Graph Learning with Adversarial Contrastive Adaptation [19.419836274690816]
効率的な自己教師型学習を実現するための空間時空間グラフ学習モデル(GraphST)を提案する。
提案手法は, 重要な多視点自己教師情報の蒸留を自動化する, 対向的コントラスト学習パラダイムである。
実生活データセット上での様々な時空間予測タスクにおいて,提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-06-19T03:09:35Z) - Continual Learning on Dynamic Graphs via Parameter Isolation [40.96053483180836]
動的グラフの連続学習のための分離GNN(PI-GNN)を提案する。
最適化によって影響のないパターンに対応するパラメータを見つけ、それらが書き換えられるのを防ぐために凍結する。
8つの実世界のデータセットの実験は、PI-GNNの有効性を裏付ける。
論文 参考訳(メタデータ) (2023-05-23T08:49:19Z) - A Comprehensive Survey on Deep Graph Representation Learning [26.24869157855632]
グラフ表現学習は、高次元スパースグラフ構造化データを低次元密度ベクトルに符号化することを目的としている。
従来の手法ではモデル能力に制限があり、学習性能に制限がある。
深層グラフ表現学習は、浅い(伝統的な)方法よりも大きな可能性と利点を示している。
論文 参考訳(メタデータ) (2023-04-11T08:23:52Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Continual Graph Learning: A Survey [4.618696834991205]
連続学習(CL)の研究は主にユークリッド空間で表されるデータに焦点を当てている。
ほとんどのグラフ学習モデルは静的グラフ用に調整されている。
グラフ学習モデルが漸進的にトレーニングされるとき、破滅的な忘れ方も現れます。
論文 参考訳(メタデータ) (2023-01-28T15:42:49Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。