論文の概要: Graph Relation Aware Continual Learning
- arxiv url: http://arxiv.org/abs/2308.08259v1
- Date: Wed, 16 Aug 2023 09:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:53:30.648499
- Title: Graph Relation Aware Continual Learning
- Title(参考訳): グラフ関係を考慮した連続学習
- Authors: Qinghua Shen and Weijieying Ren and Wei Qin
- Abstract要約: 連続グラフ学習(CGL)は、無限のグラフデータストリームから学習する問題を研究する。
我々は、縁の裏側にある潜伏関係を探索する関係発見モジュールからなるRAM-CGと呼ばれる関係認識適応モデルを設計する。
RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して2.2%、6.9%、および6.6%の精度向上を提供する。
- 参考スコア(独自算出の注目度): 3.908470250825618
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Continual graph learning (CGL) studies the problem of learning from an
infinite stream of graph data, consolidating historical knowledge, and
generalizing it to the future task. At once, only current graph data are
available. Although some recent attempts have been made to handle this task, we
still face two potential challenges: 1) most of existing works only manipulate
on the intermediate graph embedding and ignore intrinsic properties of graphs.
It is non-trivial to differentiate the transferred information across graphs.
2) recent attempts take a parameter-sharing policy to transfer knowledge across
time steps or progressively expand new architecture given shifted graph
distribution. Learning a single model could loss discriminative information for
each graph task while the model expansion scheme suffers from high model
complexity. In this paper, we point out that latent relations behind graph
edges can be attributed as an invariant factor for the evolving graphs and the
statistical information of latent relations evolves. Motivated by this, we
design a relation-aware adaptive model, dubbed as RAM-CG, that consists of a
relation-discovery modular to explore latent relations behind edges and a
task-awareness masking classifier to accounts for the shifted. Extensive
experiments show that RAM-CG provides significant 2.2%, 6.9% and 6.6% accuracy
improvements over the state-of-the-art results on CitationNet, OGBN-arxiv and
TWITCH dataset, respective.
- Abstract(参考訳): 連続グラフ学習(CGL)は、無限列のグラフデータから学習し、歴史的知識を集約し、それを将来のタスクに一般化する問題を研究する。
同時に、現在のグラフデータのみが利用可能である。
このタスクを扱うために最近いくつかの試みが行われたが、まだ2つの潜在的な課題に直面している。
1) 既存の研究の多くは中間グラフの埋め込みのみを扱い、グラフの内在的性質を無視する。
グラフをまたいで転送された情報を区別するのは非自明である。
2)最近の試みでは,時間ステップをまたいで知識を伝達したり,シフトしたグラフ分布を段階的に拡張したりするためのパラメータ共有政策が試みられている。
単一のモデルを学習すると、各グラフタスクの識別情報が失われ、モデル拡張スキームはモデルの複雑さに悩まされる。
本稿では,グラフエッジの背後にある潜在関係が発展するグラフの不変因子として説明され,潜在関係の統計情報が進化することを示す。
エッジの背後にある潜在関係を探索するリレーション・ディスカバリーモジュールと,シフトを考慮したタスク認識マスク分類器で構成される,リレーション・アウェア・アダプティブモデルの設計を行った。
大規模な実験により、RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して、それぞれ2.2%、6.9%、および6.6%の精度向上を提供することが示された。
関連論文リスト
- A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - InfoGCL: Information-Aware Graph Contrastive Learning [26.683911257080304]
コントラスト学習過程において,グラフ情報がどのように変換され,伝達されるかを検討する。
本稿では,InfoGCL と呼ばれる情報認識型グラフコントラスト学習フレームワークを提案する。
我々は,最近のグラフコントラスト学習手法をフレームワークによって統一できることを初めて示す。
論文 参考訳(メタデータ) (2021-10-28T21:10:39Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。