論文の概要: Bi-Level Attention Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2304.11533v1
- Date: Sun, 23 Apr 2023 04:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 17:52:29.871484
- Title: Bi-Level Attention Graph Neural Networks
- Title(参考訳): Bi-Level Attention Graph Neural Networks
- Authors: Roshni G. Iyer, Wei Wang, Yizhou Sun
- Abstract要約: 両レベル注意グラフニューラルネットワーク(BA-GNN),スケーラブルニューラルネットワーク(NN)について,新しい2レベルグラフアテンション機構を提案する。
BA-GNNは、局所的な近所のコンテキストから両方の種類の情報に階層的に参加することで、ノードノードと関係関係関係の相互作用をパーソナライズした方法でモデル化する。
- 参考スコア(独自算出の注目度): 31.543368116788706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent graph neural networks (GNNs) with the attention mechanism have
historically been limited to small-scale homogeneous graphs (HoGs). However,
GNNs handling heterogeneous graphs (HeGs), which contain several entity and
relation types, all have shortcomings in handling attention. Most GNNs that
learn graph attention for HeGs learn either node-level or relation-level
attention, but not both, limiting their ability to predict both important
entities and relations in the HeG. Even the best existing method that learns
both levels of attention has the limitation of assuming graph relations are
independent and that its learned attention disregards this dependency
association. To effectively model both multi-relational and multi-entity
large-scale HeGs, we present Bi-Level Attention Graph Neural Networks (BA-GNN),
scalable neural networks (NNs) that use a novel bi-level graph attention
mechanism. BA-GNN models both node-node and relation-relation interactions in a
personalized way, by hierarchically attending to both types of information from
local neighborhood contexts instead of the global graph context. Rigorous
experiments on seven real-world HeGs show BA-GNN consistently outperforms all
baselines, and demonstrate quality and transferability of its learned
relation-level attention to improve performance of other GNNs.
- Abstract(参考訳): 注目機構を持つ最近のグラフニューラルネットワーク(GNN)は、歴史的に小規模同質グラフ(HoG)に限られてきた。
しかし、多元グラフ(HeGs)を扱うGNNにはいくつかのエンティティと関係型があり、すべて注意を処理するのに欠点がある。
HeGのグラフアテンションを学ぶほとんどのGNNはノードレベルか関係レベルのアテンションを学ぶが、両方ではなく、HeGの重要なエンティティとリレーションの両方を予測する能力を制限する。
両方の注意レベルを学習する最良の方法でさえ、グラフ関係が独立であると仮定する制限があり、その学習された注意はこの依存関係を無視している。
マルチリレーショナルかつマルチエンタリティな大規模HeGを効果的にモデル化するために,新しい2レベルグラフアテンション機構を用いたBA-GNN(Bi-Level Attention Graph Neural Networks)を提案する。
BA-GNNは、グローバルグラフコンテキストの代わりに、局所的な近傍コンテキストからの両方の情報に階層的に参加することにより、ノードノードと関係関係関係の相互作用をパーソナライズした方法でモデル化する。
7つの実世界のHeGの厳密な実験は、BA-GNNが全てのベースラインを一貫して上回り、学習された関係レベルの注意の質と伝達性を示し、他のGNNの性能を向上させる。
関連論文リスト
- Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Hierarchical Attention Models for Multi-Relational Graphs [40.143721982295915]
BR-GCN(Bi-Level Attention-Based Graph Convolutional Networks)を提案する。
BR-GCNモデルは,(1)ノードレベルの注意,(2)関係レベルの注意を通じてノードの埋め込みを学習する。
BR-GCNの注意機構は,最先端のGNNと比較して,スケーラブルで,学習に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-14T21:37:39Z) - 2-hop Neighbor Class Similarity (2NCS): A graph structural metric
indicative of graph neural network performance [4.051099980410583]
グラフニューラルネットワーク(GNN)は、多数のドメインにわたるグラフ構造化データに対して最先端のパフォーマンスを実現する。
異なるタイプのノードが接続されるヘテロ親和性グラフでは、GNNは一貫して機能しない。
2-hop Neighbor Class similarity (2NCS) は、GNNのパフォーマンスと、他の指標よりも強く、一貫して相関する新しい定量的グラフ構造特性である。
論文 参考訳(メタデータ) (2022-12-26T16:16:51Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。