論文の概要: GSAT: Graph Structure Attention Networks
- arxiv url: http://arxiv.org/abs/2505.21288v1
- Date: Tue, 27 May 2025 14:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.732687
- Title: GSAT: Graph Structure Attention Networks
- Title(参考訳): GSAT: グラフ構造注意ネットワーク
- Authors: Farshad Noravesh, Reza Haffari, Layki Soon, Arghya Pal,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造で表されるデータを処理する強力なツールとして登場した。
ノード近傍でリッチな局所位相情報を符号化する各ノードの構造表現は、しばしばモデリングで見過ごされる重要なタイプの特徴である。
本稿では、匿名ランダムウォーク(ARW)によってモデル化されたこれらの構造情報を活用し、グラフ構造注意ネットワーク(GSAT)を導入して、元の属性と構造表現を統合する。
- 参考スコア(独自算出の注目度): 6.546071689641213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as a powerful tool for processing data represented in graph structures, achieving remarkable success across a wide range of applications. However, to further improve the performance on graph classification benchmarks, structural representation of each node that encodes rich local topological information in the neighbourhood of nodes is an important type of feature that is often overlooked in the modeling. The consequence of neglecting the structural information has resulted high number of layers to connect messages from distant nodes which by itself produces other problems such as oversmoothing. In the present paper, we leverage these structural information that are modeled by anonymous random walks (ARWs) and introduce graph structure attention network (GSAT) which is a generalization of graph attention network(GAT) to integrate the original attribute and the structural representation to enforce the model to automatically find patterns for attending to different edges in the node neighbourhood to enrich graph representation. Our experiments show GSAT slightly improves SOTA on some graph classification benchmarks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造で表されるデータを処理する強力なツールとして登場し、幅広いアプリケーションで顕著な成功を収めている。
しかし、グラフ分類ベンチマークの性能をさらに向上させるために、ノード近傍でリッチな局所位相情報を符号化する各ノードの構造表現は、しばしばモデリングで見落とされがちな重要な特徴である。
構造情報を無視した結果として、遠く離れたノードからのメッセージを接続する多くの層が生まれ、それ自身は過度にスムーシングのような他の問題を引き起こす。
本稿では、匿名ランダムウォーク(ARW)によってモデル化されたこれらの構造情報を活用し、グラフアテンションネットワーク(GAT)の一般化であるグラフアテンションネットワーク(GSAT)を導入し、元の属性と構造表現を統合することにより、ノード近傍の異なるエッジに自動的に出席するパターンを見つけ、グラフ表現を豊かにする。
実験の結果、GSATはいくつかのグラフ分類ベンチマークでSOTAをわずかに改善した。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - Node Classification via Semantic-Structural Attention-Enhanced Graph Convolutional Networks [0.9463895540925061]
SSA-GCN(Semantic-structure attention-enhanced graph convolutional Network)を導入する。
グラフ構造をモデル化するだけでなく、分類性能を高めるために一般化されていない特徴を抽出する。
Cora と CiteSeer のデータセットに対する実験により,提案手法による性能改善が実証された。
論文 参考訳(メタデータ) (2024-03-24T06:28:54Z) - GraphEdit: Large Language Models for Graph Structure Learning [14.16155596597421]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Graph Structural-topic Neural Network [35.27112594356742]
Graph Convolutional Networks(GCNs)は、ノードのローカル機能を効果的に収集することで、大きな成功を収めた。
本稿では,グラフのトピックモデルを利用したGCNモデルであるGraphSTONEを提案する。
ノードの特徴と構造的トピックの特徴を統一する多視点GCNを設計し、構造的トピックを利用して集約を誘導する。
論文 参考訳(メタデータ) (2020-06-25T09:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。