論文の概要: SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization
- arxiv url: http://arxiv.org/abs/2303.09778v1
- Date: Fri, 17 Mar 2023 05:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:41:34.272863
- Title: SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization
- Title(参考訳): SE-GSL: 構造エントロピー最適化による汎用的で効果的なグラフ構造学習フレームワーク
- Authors: Dongcheng Zou, Hao Peng, Xiang Huang, Renyu Yang, Jianxin Li, Jia Wu,
Chunyang Liu and Philip S. Yu
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
- 参考スコア(独自算出の注目度): 67.28453445927825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are de facto solutions to structural data
learning. However, it is susceptible to low-quality and unreliable structure,
which has been a norm rather than an exception in real-world graphs. Existing
graph structure learning (GSL) frameworks still lack robustness and
interpretability. This paper proposes a general GSL framework, SE-GSL, through
structural entropy and the graph hierarchy abstracted in the encoding tree.
Particularly, we exploit the one-dimensional structural entropy to maximize
embedded information content when auxiliary neighbourhood attributes are fused
to enhance the original graph. A new scheme of constructing optimal encoding
trees is proposed to minimize the uncertainty and noises in the graph whilst
assuring proper community partition in hierarchical abstraction. We present a
novel sample-based mechanism for restoring the graph structure via node
structural entropy distribution. It increases the connectivity among nodes with
larger uncertainty in lower-level communities. SE-GSL is compatible with
various GNN models and enhances the robustness towards noisy and heterophily
structures. Extensive experiments show significant improvements in the
effectiveness and robustness of structure learning and node representation
learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
しかし、実世界のグラフでは例外ではなく規範であった低品質で信頼性の低い構造に影響を受けやすい。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
特に,1次元構造エントロピーを利用して,周辺属性を融合させて元のグラフを強化する場合の埋め込み情報量を最大化する。
グラフにおける不確実性やノイズを最小限に抑えつつ,階層的抽象化で適切なコミュニティ分割を確保すべく,最適な符号化木を構築する新しい手法を提案する。
本稿では,ノード構造エントロピー分布によるグラフ構造復元のための新しいサンプルベース機構を提案する。
低レベルのコミュニティにおいて、大きな不確実性を持つノード間の接続を増加させる。
SE-GSLは様々なGNNモデルと互換性があり、ノイズや不均一構造に対する堅牢性を高める。
広範な実験により、構造学習とノード表現学習の有効性とロバスト性が大幅に向上した。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information [72.83485174169027]
PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
論文 参考訳(メタデータ) (2022-12-30T16:02:02Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。