論文の概要: Transitivity-Preserving Graph Representation Learning for Bridging Local
Connectivity and Role-based Similarity
- arxiv url: http://arxiv.org/abs/2308.09517v1
- Date: Fri, 18 Aug 2023 12:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 13:18:12.010550
- Title: Transitivity-Preserving Graph Representation Learning for Bridging Local
Connectivity and Role-based Similarity
- Title(参考訳): 局所接続のブリッジ化と役割に基づく類似性を考慮した推移性保存グラフ表現学習
- Authors: Van Thuy Hoang and O-Joun Lee
- Abstract要約: 局所的およびグローバルな構造情報を固定長ベクトル表現に統合するUnified Graph Transformer Networks (UGT)を提案する。
まず、UGTは各ノードの局所的な部分構造を特定し、各ノードの$k$ホップ近傍の特徴を集約することによって局所構造を学習する。
第三に、UGTは自己アテンションを通じて統一表現を学び、構造距離とノードペア間の$p$ステップ遷移確率を符号化する。
- 参考スコア(独自算出の注目度): 2.5252594834159643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning (GRL) methods, such as graph neural networks
and graph transformer models, have been successfully used to analyze
graph-structured data, mainly focusing on node classification and link
prediction tasks. However, the existing studies mostly only consider local
connectivity while ignoring long-range connectivity and the roles of nodes. In
this paper, we propose Unified Graph Transformer Networks (UGT) that
effectively integrate local and global structural information into fixed-length
vector representations. First, UGT learns local structure by identifying the
local substructures and aggregating features of the $k$-hop neighborhoods of
each node. Second, we construct virtual edges, bridging distant nodes with
structural similarity to capture the long-range dependencies. Third, UGT learns
unified representations through self-attention, encoding structural distance
and $p$-step transition probability between node pairs. Furthermore, we propose
a self-supervised learning task that effectively learns transition probability
to fuse local and global structural features, which could then be transferred
to other downstream tasks. Experimental results on real-world benchmark
datasets over various downstream tasks showed that UGT significantly
outperformed baselines that consist of state-of-the-art models. In addition,
UGT reaches the expressive power of the third-order Weisfeiler-Lehman
isomorphism test (3d-WL) in distinguishing non-isomorphic graph pairs. The
source code is available at
https://github.com/NSLab-CUK/Unified-Graph-Transformer.
- Abstract(参考訳): グラフニューラルネットワークやグラフトランスフォーマモデルといったグラフ表現学習(grl)手法は、主にノード分類とリンク予測タスクに焦点を当てたグラフ構造化データの解析に成功している。
しかし、既存の研究は主にローカル接続のみを考慮し、長距離接続やノードの役割を無視している。
本稿では,局所的および大域的構造情報を固定長ベクトル表現に効果的に統合する統一グラフトランスフォーマネットワーク(UGT)を提案する。
まず、ugtはローカルなサブ構造を特定し、各ノードの$k$-hop近傍の特徴を集約することでローカル構造を学ぶ。
第2に、仮想エッジを構築し、遠方のノードに構造的な類似性を持たせて、長距離の依存関係をキャプチャします。
第3に、ugtは自己アテンションを通じて統一表現を学習し、ノード対間の構造距離と$p$-step遷移確率を符号化する。
さらに,遷移確率を効果的に学習し,局所的およびグローバルな構造的特徴を融合させる自己教師型学習タスクを提案する。
様々な下流タスクに対する実世界のベンチマークデータセットの実験結果から、UGTは最先端のモデルで構成されるベースラインよりも著しく優れていた。
加えて、UGT は非同型グラフ対を区別する三階ワイスフェイラー・リーマン同型テスト (3d-WL) の表現力に達する。
ソースコードはhttps://github.com/NSLab-CUK/Unified-Graph-Transformerで入手できる。
関連論文リスト
- Improving Graph Neural Networks by Learning Continuous Edge Directions [0.0]
グラフニューラルネットワーク(GNN)は、従来、非指向グラフ上の拡散に似たメッセージパッシング機構を採用している。
私たちのキーとなる洞察は、ファジィエッジ方向をグラフのエッジに割り当てることです。
ファジィエッジを持つグラフを学習するためのフレームワークとして,Continuous Edge Direction (CoED) GNNを提案する。
論文 参考訳(メタデータ) (2024-10-18T01:34:35Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Node-like as a Whole: Structure-aware Searching and Coarsening for Graph Classification [14.602474387096244]
グラフトランスフォーマー(GT)は、グラフレベルのタスクにおいて顕著な成果を上げている。
グラフ構造全体をノード的に扱うことで、ハイレベルな機能を学ぶことができますか?
本稿では,構造認識探索と粗化による多視点グラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2024-04-18T03:03:37Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Edge-augmented Graph Transformers: Global Self-attention is Enough for
Graphs [24.796242917673755]
本稿では,変圧器の残差エッジチャネルに対する簡易かつ強力な拡張を提案する。
結果として得られるフレームワークは、Edge-augmented Graph Transformer (EGT)と呼ばれ、ノード情報だけでなく、構造情報を直接受け入れ、処理し、出力することができる。
我々のフレームワークはグローバルノードの特徴集約に依存しており、グラフ畳み込みネットワーク(GCN)よりも優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-08-07T02:18:11Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Deep graph learning for semi-supervised classification [11.260083018676548]
グラフ学習(GL)は、グラフ畳み込みネットワーク(GCN)に基づくデータの分布構造(グラフ構造)を動的に捉えることができる
既存の手法は主に計算層と関連する損失をGCNに組み合わせ、グローバルグラフや局所グラフを探索する。
半教師付き分類において,より優れたグラフ表現を求めるためにディープグラフ学習(DGL)を提案する。
論文 参考訳(メタデータ) (2020-05-29T05:59:45Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。