論文の概要: Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2109.09300v1
- Date: Mon, 20 Sep 2021 05:04:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:18:11.547207
- Title: Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks
- Title(参考訳): 特徴相関アグリゲーション:より良いグラフニューラルネットワークへの道のり
- Authors: Jieming Zhou, Tong Zhang, Pengfei Fang, Lars Petersson, Mehrtash
Harandi
- Abstract要約: グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
- 参考スコア(独自算出の注目度): 37.79964911718766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior to the introduction of Graph Neural Networks (GNNs), modeling and
analyzing irregular data, particularly graphs, was thought to be the Achilles'
heel of deep learning. The core concept of GNNs is to find a representation by
recursively aggregating the representations of a central node and those of its
neighbors. The core concept of GNNs is to find a representation by recursively
aggregating the representations of a central node and those of its neighbor,
and its success has been demonstrated by many GNNs' designs. However, most of
them only focus on using the first-order information between a node and its
neighbors. In this paper, we introduce a central node permutation variant
function through a frustratingly simple and innocent-looking modification to
the core operation of a GNN, namely the Feature cOrrelation aGgregation (FOG)
module which learns the second-order information from feature correlation
between a node and its neighbors in the pipeline. By adding FOG into existing
variants of GNNs, we empirically verify this second-order information
complements the features generated by original GNNs across a broad set of
benchmarks. A tangible boost in performance of the model is observed where the
model surpasses previous state-of-the-art results by a significant margin while
employing fewer parameters. (e.g., 33.116% improvement on a real-world
molecular dataset using graph convolutional networks).
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
GNNの中核的な概念は、中央ノードとその隣人の表現を再帰的に集約することで表現を見つけることである。
GNNのコアコンセプトは、中央ノードとその隣人の表現を再帰的に集約することで表現を見つけることであり、その成功は多くのGNNの設計によって実証されている。
しかし、それらのほとんどは、ノードとその隣人の間の一階情報の使用のみに焦点を当てている。
本稿では,GNNのコア操作,すなわちFunction cOrrelation aGgregation (FOG)モジュールに対して,パイプライン内のノードとその隣人の特徴相関から第2次情報を学習するフラストレーション的にシンプルで無作為な修正を通じて,中央ノード置換変分関数を導入する。
既存のGNNにFOGを追加することで、この2次情報は、幅広いベンチマークで生成された特徴を補うことを実証的に検証する。
モデルのパフォーマンスの具体的向上が観察され、モデルが以前の最先端の結果をかなりマージンで上回り、パラメータを少なくする。
(例えば、グラフ畳み込みネットワークを用いた実世界の分子データセットの33.116%の改善)。
関連論文リスト
- Conditional Local Feature Encoding for Graph Neural Networks [14.983942698240293]
グラフニューラルネットワーク(GNN)は,グラフベースのデータから学ぶ上で大きな成功を収めている。
現在のGNNのキーとなるメカニズムはメッセージパッシングであり、ノードの機能は、その近隣から渡される情報に基づいて更新される。
本研究では,局所的特徴符号化(CLFE)を提案する。
論文 参考訳(メタデータ) (2024-05-08T01:51:19Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Generalization and Representational Limits of Graph Neural Networks [46.20253808402385]
ローカル情報に完全に依存するグラフニューラルネットワーク(GNN)では,いくつかの重要なグラフ特性を計算できないことを示す。
メッセージパッシングGNNに対する最初のデータ依存一般化境界を提供する。
私たちのバウンダリは、既存のVC次元ベースのGNN保証よりもはるかに厳格で、リカレントニューラルネットワークのRademacherバウンダリと同等です。
論文 参考訳(メタデータ) (2020-02-14T18:10:14Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。