論文の概要: Multi-view Graph Structural Representation Learning via Graph Coarsening
- arxiv url: http://arxiv.org/abs/2404.11869v1
- Date: Thu, 18 Apr 2024 03:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 13:11:02.802500
- Title: Multi-view Graph Structural Representation Learning via Graph Coarsening
- Title(参考訳): グラフ粗化による多視点グラフ構造表現学習
- Authors: Xiaorui Qi, Qijie Bai, Yanlong Wen, Haiwei Zhang, Xiaojie Yuan,
- Abstract要約: グラフ分類のためのGTアーキテクチャ上でのグラフ粗大化(MSLgo)による新しい多視点グラフ構造表現学習モデルを提案する。
具体的には、完全な構造表現を学ぶために、オリジナル、粗大化、変換の3つのユニークなビューを構築します。
6つの実世界のデータセットの実験は、様々なアーキテクチャから14のベースラインでMSLgoの改善を実証している。
- 参考スコア(独自算出の注目度): 14.602474387096244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Transformers (GTs) have made remarkable achievements in graph-level tasks. However, most existing works regard graph structures as a form of guidance or bias for enhancing node representations, which focuses on node-central perspectives and lacks explicit representations of edges and structures. One natural question is, can we treat graph structures node-like as a whole to learn high-level features? Through experimental analysis, we explore the feasibility of this assumption. Based on our findings, we propose a novel multi-view graph structural representation learning model via graph coarsening (MSLgo) on GT architecture for graph classification. Specifically, we build three unique views, original, coarsening, and conversion, to learn a thorough structural representation. We compress loops and cliques via hierarchical heuristic graph coarsening and restrict them with well-designed constraints, which builds the coarsening view to learn high-level interactions between structures. We also introduce line graphs for edge embeddings and switch to edge-central perspective to construct the conversion view. Experiments on six real-world datasets demonstrate the improvements of MSLgo over 14 baselines from various architectures.
- Abstract(参考訳): グラフトランスフォーマー(GT)は、グラフレベルのタスクにおいて顕著な成果を上げている。
しかし、既存のほとんどの研究はグラフ構造をノード表現の拡張のためのガイダンスやバイアスの一種と見なしており、これはノード中心の視点に焦点を当てており、エッジや構造の明示的な表現を欠いている。
1つの自然な疑問は、グラフ構造全体をノード的に扱うことで、高レベルの機能を学ぶことができるか、ということです。
実験分析を通じて,この仮定の実現可能性について検討する。
本稿では,グラフ分類のためのGTアーキテクチャ上でのグラフ粗大化(MSLgo)を用いた多視点グラフ構造表現学習モデルを提案する。
具体的には、完全な構造表現を学ぶために、オリジナル、粗大化、変換の3つのユニークなビューを構築します。
階層的ヒューリスティックグラフを通じてループと斜めを圧縮し、適切に設計された制約でそれらを制限し、構造間の高レベルな相互作用を学習するための粗いビューを構築する。
また、エッジ埋め込みのための線グラフを導入し、変換ビューを構築するためにエッジ中央の視点に切り替える。
6つの実世界のデータセットの実験は、様々なアーキテクチャから14のベースラインでMSLgoの改善を実証している。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Boosting Graph Foundation Model from Structural Perspective [6.387816922598151]
構造の観点からグラフ基盤モデルを強化し,BooGを提案する。
BooGは仮想スーパーノードを構築し、異なるドメインからのグラフデータの構造的特性を統合する。
また,グラフデータに対してより表現力のある表現を学習するコントラスト学習に基づく,新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:22:16Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - Contrastive Learning for Non-Local Graphs with Multi-Resolution
Structural Views [1.4445779250002606]
本稿では,グラフ上の拡散フィルタを統合する新しい多視点コントラスト学習手法を提案する。
複数のグラフビューを拡張として組み込むことで、異種グラフの構造的等価性を捉える。
論文 参考訳(メタデータ) (2023-08-19T17:42:02Z) - Transitivity-Preserving Graph Representation Learning for Bridging Local
Connectivity and Role-based Similarity [2.5252594834159643]
局所的およびグローバルな構造情報を固定長ベクトル表現に統合するUnified Graph Transformer Networks (UGT)を提案する。
まず、UGTは各ノードの局所的な部分構造を特定し、各ノードの$k$ホップ近傍の特徴を集約することによって局所構造を学習する。
第三に、UGTは自己アテンションを通じて統一表現を学び、構造距離とノードペア間の$p$ステップ遷移確率を符号化する。
論文 参考訳(メタデータ) (2023-08-18T12:49:57Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Structure-Preserving Graph Representation Learning [43.43429108503634]
本研究では,グラフの構造情報を完全にキャプチャする構造保存グラフ表現学習(SPGRL)手法を提案する。
具体的には、元のグラフの不確かさと誤情報を減らすために、k-Nearest Neighbor法による補完的なビューとして特徴グラフを構築する。
本手法は、半教師付きノード分類タスクにおいて非常に優れた性能を示し、グラフ構造やノード特徴に対するノイズ摂動下での堅牢性に優れる。
論文 参考訳(メタデータ) (2022-09-02T02:49:19Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - Bridging Knowledge Graphs to Generate Scene Graphs [49.69377653925448]
本稿では,2つのグラフ間の情報伝達を反復的に行う新しいグラフベースニューラルネットワークを提案する。
我々のグラフブリッジネットワークであるGB-Netは、エッジとノードを連続的に推論し、相互接続されたシーンとコモンセンスグラフのリッチでヘテロジニアスな構造を同時に活用し、洗練する。
論文 参考訳(メタデータ) (2020-01-07T23:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。