論文の概要: Disentangle-based Continual Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2010.02565v4
- Date: Tue, 24 Nov 2020 06:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:13:09.927460
- Title: Disentangle-based Continual Graph Representation Learning
- Title(参考訳): 異角形に基づく連続グラフ表現学習
- Authors: Xiaoyu Kou, Yankai Lin, Shaobo Liu, Peng Li, Jie Zhou, Yan Zhang
- Abstract要約: グラフ埋め込み(GE)メソッドは、グラフ内のノード(および/またはエッジ)を低次元の意味空間に埋め込む。
既存のGEモデルは、受信データのストリーミング特性を見落としているため、現実のアプリケーションでは実用的ではない。
本稿では,人間の手続き的知識の学習能力に触発された,アンタングルに基づく連続グラフ表現学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 32.081943985875554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph embedding (GE) methods embed nodes (and/or edges) in graph into a
low-dimensional semantic space, and have shown its effectiveness in modeling
multi-relational data. However, existing GE models are not practical in
real-world applications since it overlooked the streaming nature of incoming
data. To address this issue, we study the problem of continual graph
representation learning which aims to continually train a GE model on new data
to learn incessantly emerging multi-relational data while avoiding
catastrophically forgetting old learned knowledge. Moreover, we propose a
disentangle-based continual graph representation learning (DiCGRL) framework
inspired by the human's ability to learn procedural knowledge. The experimental
results show that DiCGRL could effectively alleviate the catastrophic
forgetting problem and outperform state-of-the-art continual learning models.
- Abstract(参考訳): グラフ埋め込み(GE)法は,ノード(およびエッジ)を低次元のセマンティック空間に埋め込むことで,マルチリレーショナルデータのモデリングに有効であることを示す。
しかし、既存のGEモデルは、受信データのストリーミング特性を見落としているため、現実のアプリケーションでは実用的ではない。
そこで本研究では,GEモデルを新しいデータで継続的に訓練し,不必要に出現するマルチリレーショナルデータを学習することを目的とした連続グラフ表現学習の課題について検討する。
さらに,人間の手続き的知識を学習する能力に触発されたディスタンタングルに基づく連続グラフ表現学習(dicgrl)フレームワークを提案する。
実験の結果, dicgrlは, 壊滅的な記憶喪失問題を効果的に軽減し, 最先端の連続学習モデルよりも優れていた。
関連論文リスト
- Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Continual Learning on Graphs: Challenges, Solutions, and Opportunities [72.7886669278433]
本稿では,既存の連続グラフ学習(CGL)アルゴリズムの総合的なレビューを行う。
従来の連続学習手法と比較し,従来の連続学習手法の適用性を分析した。
アクセス可能なアルゴリズムの包括的なリストを含む、最新のリポジトリを維持します。
論文 参考訳(メタデータ) (2024-02-18T12:24:45Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Continual Learning on Dynamic Graphs via Parameter Isolation [40.96053483180836]
動的グラフの連続学習のための分離GNN(PI-GNN)を提案する。
最適化によって影響のないパターンに対応するパラメータを見つけ、それらが書き換えられるのを防ぐために凍結する。
8つの実世界のデータセットの実験は、PI-GNNの有効性を裏付ける。
論文 参考訳(メタデータ) (2023-05-23T08:49:19Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Continual Graph Learning: A Survey [4.618696834991205]
連続学習(CL)の研究は主にユークリッド空間で表されるデータに焦点を当てている。
ほとんどのグラフ学習モデルは静的グラフ用に調整されている。
グラフ学習モデルが漸進的にトレーニングされるとき、破滅的な忘れ方も現れます。
論文 参考訳(メタデータ) (2023-01-28T15:42:49Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。