論文の概要: Beyond 1-WL with Local Ego-Network Encodings
- arxiv url: http://arxiv.org/abs/2211.14906v1
- Date: Sun, 27 Nov 2022 18:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:34:45.647300
- Title: Beyond 1-WL with Local Ego-Network Encodings
- Title(参考訳): ローカルEgo-Networkエンコーディングによる1-WLを超えて
- Authors: Nurudin Alvarez-Gonzalez, Andreas Kaltenbrunner, Vicen\c{c} G\'omez
- Abstract要約: Ego-networksはWeisfeiler-Lehman (1-WL) テストよりも高い表現性を持つ任意のグラフの構造的符号化スキームを作成できることを示す。
我々は,ego-networksをスパースベクトルに符号化することで,ノード表現を増強する機能を前処理で生成するIGELを紹介した。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying similar network structures is key to capture graph isomorphisms
and learn representations that exploit structural information encoded in graph
data. This work shows that ego-networks can produce a structural encoding
scheme for arbitrary graphs with greater expressivity than the
Weisfeiler-Lehman (1-WL) test. We introduce IGEL, a preprocessing step to
produce features that augment node representations by encoding ego-networks
into sparse vectors that enrich Message Passing (MP) Graph Neural Networks
(GNNs) beyond 1-WL expressivity. We describe formally the relation between IGEL
and 1-WL, and characterize its expressive power and limitations. Experiments
show that IGEL matches the empirical expressivity of state-of-the-art methods
on isomorphism detection while improving performance on seven GNN
architectures.
- Abstract(参考訳): 類似したネットワーク構造を特定することは、グラフ同型を捕捉し、グラフデータに符号化された構造情報を利用する表現を学習する鍵となる。
この研究は、Ego-networksがWeisfeiler-Lehman (1-WL) テストよりも高い表現性を持つ任意のグラフの構造的符号化スキームを作成できることを示している。
IGELは1-WLの表現性を超えたメッセージパッシング(MP)グラフニューラルネットワーク(GNN)を強化した疎ベクトルにエゴネットワークを符号化することでノード表現を増強する機能を生成する。
IGELと1-WLの関係を形式的に記述し,その表現力と限界を特徴付ける。
実験の結果、IGELは7つのGNNアーキテクチャの性能を改善しつつ、同型検出における最先端手法の実証的表現性と一致していることがわかった。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Improving Expressivity of GNNs with Subgraph-specific Factor Embedded
Normalization [30.86182962089487]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱うための学習アーキテクチャの強力なカテゴリとして登場した。
我々は SUbgraph-sPEcific FactoR Embedded Normalization (SuperNorm) と呼ばれる専用プラグアンドプレイ正規化方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:37:31Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - Graph Representation Learning with Individualization and Refinement [19.436520792345064]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での表現学習の顕著なモデルとして登場した。
本研究では、個人化・再分極(IR)の古典的アプローチに従う。
我々の手法は、計算複雑性を管理しつつ、よりリッチなノード埋め込みを学習することを可能にする。
論文 参考訳(メタデータ) (2022-03-17T07:50:48Z) - Breaking the Expressive Bottlenecks of Graph Neural Networks [26.000304641965947]
近年, weisfeiler-lehman (wl) graph isomorphism test を用いてグラフニューラルネットワーク (gnns) の表現性の測定を行った。
本稿では,強力なアグリゲータを探索することで表現性を向上する。
論文 参考訳(メタデータ) (2020-12-14T02:36:46Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。