論文の概要: SGAT: Simplicial Graph Attention Network
- arxiv url: http://arxiv.org/abs/2207.11761v1
- Date: Sun, 24 Jul 2022 15:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:10:59.795912
- Title: SGAT: Simplicial Graph Attention Network
- Title(参考訳): SGAT: 単純なグラフアテンションネットワーク
- Authors: See Hian Lee, Feng Ji and Wee Peng Tay
- Abstract要約: 不均一グラフは複数のノード型とエッジ型を持ち、同質グラフよりも意味的にリッチである。
不均一グラフに対する多くのグラフニューラルネットワークアプローチは、ノード間のマルチホップ相互作用をキャプチャするためにメタパスを使用する。
SGAT(Simplicial Graph Attention Network)は、このような高次相互作用を表現するための単純な複雑なアプローチである。
- 参考スコア(独自算出の注目度): 38.7842803074593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graphs have multiple node and edge types and are semantically
richer than homogeneous graphs. To learn such complex semantics, many graph
neural network approaches for heterogeneous graphs use metapaths to capture
multi-hop interactions between nodes. Typically, features from non-target nodes
are not incorporated into the learning procedure. However, there can be
nonlinear, high-order interactions involving multiple nodes or edges. In this
paper, we present Simplicial Graph Attention Network (SGAT), a simplicial
complex approach to represent such high-order interactions by placing features
from non-target nodes on the simplices. We then use attention mechanisms and
upper adjacencies to generate representations. We empirically demonstrate the
efficacy of our approach with node classification tasks on heterogeneous graph
datasets and further show SGAT's ability in extracting structural information
by employing random node features. Numerical experiments indicate that SGAT
performs better than other current state-of-the-art heterogeneous graph
learning methods.
- Abstract(参考訳): 不均一グラフは複数のノードとエッジ型を持ち、同質グラフよりも意味的にリッチである。
このような複雑なセマンティクスを学ぶために、ヘテロジニアスグラフに対する多くのグラフニューラルネットワークアプローチは、ノード間のマルチホップインタラクションをキャプチャするためにメタパスを使用する。
通常、非ターゲットノードの機能は学習手順には組み込まれない。
しかし、複数のノードやエッジを含む非線形で高次相互作用が存在する。
本稿では,sgat(simplicial graph attention network)を提案する。sgat(simplicial graph attention network)は,そのような高次相互作用を表現するための,単純で複雑なアプローチである。
次に、注意機構と上部隣接を用いて表現を生成する。
異種グラフデータセット上でのノード分類タスクによるアプローチの有効性を実証的に実証し、ランダムなノード特徴を用いて構造情報を抽出するSGATの能力を示す。
数値実験により、SGATは他の最先端の異種グラフ学習法よりも優れた性能を示した。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Demystifying Graph Convolution with a Simple Concatenation [6.542119695695405]
グラフトポロジ、ノード特徴、ラベル間の重なり合う情報を定量化する。
グラフの畳み込みは、グラフの畳み込みに代わる単純だが柔軟な代替手段であることを示す。
論文 参考訳(メタデータ) (2022-07-18T16:39:33Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。