論文の概要: Contextualized Messages Boost Graph Representations
- arxiv url: http://arxiv.org/abs/2403.12529v3
- Date: Mon, 30 Sep 2024 12:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:24.377687
- Title: Contextualized Messages Boost Graph Representations
- Title(参考訳): コンテキスト化されたメッセージはグラフ表現を増強する
- Authors: Brian Godwin Lim, Galvin Brice Lim, Renzo Roel Tan, Kazushi Ikeda,
- Abstract要約: 本稿では,グラフネットワーク(GNN)がグラフとして表現される可能性のあるデータを処理する能力について検討する。
これは、すべてのレベルの能力について調査されているGNNはごくわずかであることを示している。
SIRGCNと広く使われているGNNの関係を数学的に議論し、コントリビューションを文脈に組み込む。
- 参考スコア(独自算出の注目度): 1.5178009359320295
- License:
- Abstract: Graph neural networks (GNNs) have gained significant attention in recent years for their ability to process data that may be represented as graphs. This has prompted several studies to explore their representational capability based on the graph isomorphism task. These works inherently assume a countable node feature representation, potentially limiting their applicability. Interestingly, only a few study GNNs with uncountable node feature representation. In the paper, a novel perspective on the representational capability of GNNs is investigated across all levels$\unicode{x2014}$node-level, neighborhood-level, and graph-level$\unicode{x2014}$when the space of node feature representation is uncountable. More specifically, the strict injective and metric requirements are softly relaxed by employing a pseudometric distance on the space of input to create a soft-injective function such that distinct inputs may produce similar outputs if and only if the pseudometric deems the inputs to be sufficiently similar on some representation. As a consequence, a simple and computationally efficient soft-isomorphic relational graph convolution network (SIR-GCN) that emphasizes the contextualized transformation of neighborhood feature representations via anisotropic and dynamic message functions is proposed. A mathematical discussion on the relationship between SIR-GCN and widely used GNNs is then laid out to put the contribution into context, establishing SIR-GCN as a generalization of classical GNN methodologies. Experiments on synthetic and benchmark datasets then demonstrate the relative superiority of SIR-GCN, outperforming comparable models in node and graph property prediction tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は近年,グラフとして表現される可能性のあるデータ処理能力において,大きな注目を集めている。
これにより、グラフ同型タスクに基づく表現能力の探索がいくつかの研究で行われている。
これらは本質的に、可算ノードの特徴表現を前提としており、適用性を制限する可能性がある。
興味深いことに、未可のノード特徴表現を持つGNNの研究はごくわずかである。
本稿では、GNNの表現能力に関する新しい視点を、すべてのレベル$\unicode{x2014}$node-level, neighborhood-level, graph-level$\unicode{x2014}$ if the space of node feature representation is uncountable。
より具体的には、厳密なインジェクティブとメートル法要件は、入力の空間に擬似的距離を用いてソフトなインジェクティブ関数を生成して、異なるインジェクティブが類似した出力を生成できることと、擬似的インジェクティブが入力を何らかの表現で十分に類似しているとみなす場合に限り、ソフトに緩和される。
その結果、非等方的および動的メッセージ関数による近傍特徴表現の文脈変換を強調する、単純で効率的なソフト同型関係グラフ畳み込みネットワーク(SIR-GCN)を提案する。
その後、SIR-GCNと広く使われているGNNの関係に関する数学的議論を行い、SIR-GCNを古典的なGNN方法論の一般化として確立する。
合成およびベンチマークデータセットの実験は、SIR-GCNの相対的な優位性を実証し、ノードおよびグラフ特性予測タスクにおいて同等のモデルより優れていることを示す。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - SF-GNN: Self Filter for Message Lossless Propagation in Deep Graph Neural Network [38.669815079957566]
グラフニューラルネットワーク(GNN)は,グラフの伝播と集約によるグラフ構造情報の符号化を主目的とする。
等質グラフ、異質グラフ、知識グラフのようなより複雑なグラフなど、複数の種類のグラフの表現学習において優れた性能を発揮した。
深部GNNの性能劣化現象に対して,新しい視点を提案する。
論文 参考訳(メタデータ) (2024-07-03T02:40:39Z) - Improving Expressivity of GNNs with Subgraph-specific Factor Embedded
Normalization [30.86182962089487]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱うための学習アーキテクチャの強力なカテゴリとして登場した。
我々は SUbgraph-sPEcific FactoR Embedded Normalization (SuperNorm) と呼ばれる専用プラグアンドプレイ正規化方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:37:31Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Towards Expressive Graph Representation [16.17079730998607]
グラフニューラルネットワーク(GNN)は、各ノードの近傍をノード埋め込みに集約する。
GNNにおける近傍集約のための連続的入射集合関数を設計するための理論的枠組みを提案する。
複数のベンチマークデータセットからグラフ分類を行うために提案した表現型GNNを検証する。
論文 参考訳(メタデータ) (2020-10-12T03:13:41Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。