論文の概要: Representation Learning on Heterophilic Graph with Directional
Neighborhood Attention
- arxiv url: http://arxiv.org/abs/2403.01475v1
- Date: Sun, 3 Mar 2024 10:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:17:25.504644
- Title: Representation Learning on Heterophilic Graph with Directional
Neighborhood Attention
- Title(参考訳): 方向的隣り合いを考慮したヘテロ親和性グラフの表現学習
- Authors: Qincheng Lu, Jiaqi Zhu, Sitao Luan, Xiao-Wen Chang
- Abstract要約: Graph Attention Network(GAT)は、最も人気のあるGraph Neural Network(GNN)アーキテクチャの1つである。
GATは、長距離およびグローバルグラフ情報をキャプチャする能力に欠けており、いくつかのデータセットで不満足なパフォーマンスをもたらす。
本稿では,特徴に基づく注意と,グラフトポロジから抽出したグローバルな方向性情報を組み合わせるために,DGAT(Directional Graph Attention Network)を提案する。
- 参考スコア(独自算出の注目度): 8.493802098034255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Attention Network (GAT) is one of the most popular Graph Neural Network
(GNN) architecture, which employs the attention mechanism to learn edge weights
and has demonstrated promising performance in various applications. However,
since it only incorporates information from immediate neighborhood, it lacks
the ability to capture long-range and global graph information, leading to
unsatisfactory performance on some datasets, particularly on heterophilic
graphs. To address this limitation, we propose the Directional Graph Attention
Network (DGAT) in this paper. DGAT is able to combine the feature-based
attention with the global directional information extracted from the graph
topology. To this end, a new class of Laplacian matrices is proposed which can
provably reduce the diffusion distance between nodes. Based on the new
Laplacian, topology-guided neighbour pruning and edge adding mechanisms are
proposed to remove the noisy and capture the helpful long-range neighborhood
information. Besides, a global directional attention is designed to enable a
topological-aware information propagation. The superiority of the proposed DGAT
over the baseline GAT has also been verified through experiments on real-world
benchmarks and synthetic data sets. It also outperforms the state-of-the-art
(SOTA) models on 6 out of 7 real-world benchmark datasets.
- Abstract(参考訳): グラフアテンションネットワーク(GAT)は、エッジウェイトを学習するためのアテンションメカニズムを採用し、様々なアプリケーションで有望なパフォーマンスを示す、最も人気のあるグラフニューラルネットワーク(GNN)アーキテクチャの1つである。
しかし、近辺の情報のみを組み込むため、長距離およびグローバルグラフ情報をキャプチャする能力に欠けており、一部のデータセット、特に異種グラフでは不満足なパフォーマンスをもたらす。
本稿では,この制限に対処するため,DGAT(Directional Graph Attention Network)を提案する。
dgatは、特徴ベースの注意をグラフトポロジーから抽出したグローバル指向情報と組み合わせることができる。
この目的のために、ノード間の拡散距離を確実に低減できる新しいラプラシア行列のクラスを提案する。
新しいラプラシアンに基づき, トポロジー誘導型近傍プルーニングおよびエッジ加算機構を提案し, 雑音を除去し, 有用な長距離近傍情報を取得する。
さらに、トポロジカルな情報伝達を可能にするために、グローバルな方向性の注意が設計されている。
ベースラインGATよりも提案されたDGATの優位性も、実世界のベンチマークや合成データセットの実験を通じて検証されている。
また、7つの実世界のベンチマークデータセットのうち6つで最先端(sota)モデルを上回る。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Neighbor Overlay-Induced Graph Attention Network [5.792501481702088]
グラフニューラルネットワーク(GNN)は、グラフデータを表現できることから、大きな注目を集めている。
本研究は、次の2つのアイデアを持つ、隣接するオーバーレイ誘発グラフアテンションネットワーク(NO-GAT)を提案する。
グラフベンチマークデータセットに関する実証研究は、提案されたNO-GATが最先端モデルより一貫して優れていることを示している。
論文 参考訳(メタデータ) (2024-08-16T15:01:28Z) - Learning Topological Representations with Bidirectional Graph Attention Network for Solving Job Shop Scheduling Problem [27.904195034688257]
既存の学習に基づくジョブショップスケジューリング問題の解法(JSSP)は、通常、非方向性グラフに適した既製のGNNモデルを使用し、解離グラフ(DG)のリッチで有意義な位相構造を無視する。
本稿では,JSSP を解決するための DG を局所検索フレームワークに組み込むためのトポロジ対応双方向グラフアテンションネットワーク (TBGAT) を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:33:20Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Networks with Spectral Message Passing [1.0742675209112622]
本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-31T21:33:17Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Graph Representation Learning Network via Adaptive Sampling [4.996520403438455]
Graph Attention Network(GAT)とGraphSAGEは、グラフ構造化データを操作するニューラルネットワークアーキテクチャである。
GraphSAGEが提起した課題のひとつは、グラフ構造に基づいた隣の機能をスマートに組み合わせる方法だ。
より効率的で,異なるエッジ型情報を組み込むことが可能な,これらの問題に対処する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-08T14:36:20Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。