論文の概要: Graph Joint Attention Networks
- arxiv url: http://arxiv.org/abs/2102.03147v1
- Date: Fri, 5 Feb 2021 12:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 13:02:07.138524
- Title: Graph Joint Attention Networks
- Title(参考訳): グラフジョイントアテンションネットワーク
- Authors: Tiantian He, Lu Bai, Yew-Soon Ong
- Abstract要約: グラフアテンションネットワーク(GAT)は、グラフ構造化データから学習するための強力なツールとして認識されている。
上記の課題に対処するために,グラフジョイント・アテンション・ネットワーク(JAT)を提案する。
JATは、ノード特徴間の相対的重要性を自動的に決定できる新しい共同注意機構を採用している。
我々は理論的にJATの表現力を分析し、さらに共同注意機構の改善戦略を提案する。
- 参考スコア(独自算出の注目度): 24.258699912448257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph attention networks (GATs) have been recognized as powerful tools for
learning in graph structured data. However, how to enable the attention
mechanisms in GATs to smoothly consider both structural and feature information
is still very challenging. In this paper, we propose Graph Joint Attention
Networks (JATs) to address the aforementioned challenge. Different from
previous attention-based graph neural networks (GNNs), JATs adopt novel joint
attention mechanisms which can automatically determine the relative
significance between node features and structural coefficients learned from
graph topology, when computing the attention scores. Therefore, representations
concerning more structural properties can be inferred by JATs. Besides, we
theoretically analyze the expressive power of JATs and further propose an
improved strategy for the joint attention mechanisms that enables JATs to reach
the upper bound of expressive power which every message-passing GNN can
ultimately achieve, i.e., 1-WL test. JATs can thereby be seen as most powerful
message-passing GNNs. The proposed neural architecture has been extensively
tested on widely used benchmarking datasets, and has been compared with
state-of-the-art GNNs for various downstream predictive tasks. Experimental
results show that JATs achieve state-of-the-art performance on all the testing
datasets.
- Abstract(参考訳): グラフの注意ネットワーク(GAT)は、グラフ構造データで学習するための強力なツールとして認識されています。
しかし,GATの注意機構が構造情報と特徴情報の両方を円滑に考慮する方法については,いまだに非常に難しい。
本論文では,上記の課題に対処するために,JAT(Graph Joint Attention Networks)を提案する。
従来のアテンションベースグラフニューラルネットワーク(gnns)とは異なり、jatsはアテンションスコアを計算する際に、ノードの特徴とグラフトポロジーから学習した構造係数の相対的重要性を自動的に決定できる新しいアテンション機構を採用している。
したがって、より構造的な性質に関する表現は、JATによって推測できる。
さらに,JATの表現力を理論的に分析し,JATがすべてのメッセージパスGNNが最終的に達成できる上界の表現力,すなわち1-WLテストに到達できるような共同注意機構の改善戦略を提案する。
これにより、JATは最も強力なメッセージパッシングGNNと見なすことができる。
提案されたニューラルネットワークアーキテクチャは、広く使用されているベンチマークデータセット上で広くテストされており、さまざまな下流予測タスクの最先端のGNNと比較されている。
実験の結果、JATはすべてのテストデータセットで最先端のパフォーマンスを達成することがわかった。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Representation Learning on Heterophilic Graph with Directional
Neighborhood Attention [8.493802098034255]
Graph Attention Network(GAT)は、最も人気のあるGraph Neural Network(GNN)アーキテクチャの1つである。
GATは、長距離およびグローバルグラフ情報をキャプチャする能力に欠けており、いくつかのデータセットで不満足なパフォーマンスをもたらす。
本稿では,特徴に基づく注意と,グラフトポロジから抽出したグローバルな方向性情報を組み合わせるために,DGAT(Directional Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-03T10:59:16Z) - Learning Topological Representations with Bidirectional Graph Attention Network for Solving Job Shop Scheduling Problem [27.904195034688257]
既存の学習に基づくジョブショップスケジューリング問題の解法(JSSP)は、通常、非方向性グラフに適した既製のGNNモデルを使用し、解離グラフ(DG)のリッチで有意義な位相構造を無視する。
本稿では,JSSP を解決するための DG を局所検索フレームワークに組み込むためのトポロジ対応双方向グラフアテンションネットワーク (TBGAT) を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:33:20Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Learnable Graph Convolutional Attention Networks [7.465923786151107]
グラフニューラルネットワーク(GNN)は、ノード間のメッセージ交換を、隣接するすべてのノードの特徴を均一に(関連する)集約するか、あるいは特徴に一様でないスコア(動作)を適用することによって計算する。
最近の研究は、それぞれGCNとGATのGNNアーキテクチャの長所と短所を示している。
本稿では、注目スコアを計算するために、畳み込みに依存するグラフ畳み込みアテンション層(CAT)を紹介する。
以上の結果から,L-CATはネットワーク上の異なるGNN層を効率よく結合し,競合する手法よりも広い範囲で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-11-21T21:08:58Z) - Affinity-Aware Graph Networks [9.888383815189176]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを学ぶための強力なテクニックとして登場した。
グラフニューラルネットワークの特徴としてアフィニティ尺度の利用について検討する。
本稿では,これらの特徴に基づくメッセージパッシングネットワークを提案し,その性能を様々なノードおよびグラフ特性予測タスクで評価する。
論文 参考訳(メタデータ) (2022-06-23T18:51:35Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。