論文の概要: Feature Expansion for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2305.06142v2
- Date: Sat, 27 May 2023 17:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 00:18:59.905520
- Title: Feature Expansion for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための特徴拡張
- Authors: Jiaqi Sun, Lin Zhang, Guangyi Chen, Kun Zhang, Peng XU, Yujiu Yang
- Abstract要約: グラフニューラルネットワークを決定された特徴空間とトレーニング可能な重みに分解する。
理論的には、特徴空間は繰り返しの集合によって線形に相関する傾向がある。
これらの知見により,1)特徴部分空間の平坦化,2)特徴空間の拡張のための構造主成分を提案する。
- 参考スコア(独自算出の注目度): 26.671557021142572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks aim to learn representations for graph-structured data
and show impressive performance, particularly in node classification. Recently,
many methods have studied the representations of GNNs from the perspective of
optimization goals and spectral graph theory. However, the feature space that
dominates representation learning has not been systematically studied in graph
neural networks. In this paper, we propose to fill this gap by analyzing the
feature space of both spatial and spectral models. We decompose graph neural
networks into determined feature spaces and trainable weights, providing the
convenience of studying the feature space explicitly using matrix space
analysis. In particular, we theoretically find that the feature space tends to
be linearly correlated due to repeated aggregations. Motivated by these
findings, we propose 1) feature subspaces flattening and 2) structural
principal components to expand the feature space. Extensive experiments verify
the effectiveness of our proposed more comprehensive feature space, with
comparable inference time to the baseline, and demonstrate its efficient
convergence capability.
- Abstract(参考訳): グラフニューラルネットワークはグラフ構造化データの表現を学習することを目的としており、特にノード分類において顕著な性能を示す。
近年、最適化目標とスペクトルグラフ理論の観点から、多くの手法がgnnの表現を研究している。
しかし、表現学習を支配する特徴空間はグラフニューラルネットワークにおいて体系的に研究されていない。
本稿では,空間モデルとスペクトルモデルの両方の特徴空間を解析することにより,このギャップを埋めることを提案する。
グラフニューラルネットワークを特徴空間と学習可能な重みに分解し、行列空間解析を用いて特徴空間を明示的に研究する利便性を提供する。
特に、理論的には、特徴空間は繰り返しの集合によって線形に相関する傾向がある。
これらの発見に動機づけられ
1)特徴部分空間の平坦化
2) 機能空間を拡大するための構造主成分。
広範な実験により,提案するより包括的な特徴空間の有効性を検証し,ベースラインに対する推定時間と比較し,その効率的な収束能力を示す。
関連論文リスト
- DepWiGNN: A Depth-wise Graph Neural Network for Multi-hop Spatial
Reasoning in Text [52.699307699505646]
マルチホップ空間推論のためのDepWiGNN(Depth-Wise Graph Neural Network)を提案する。
具体的には,新しいノードメモリ方式を設計し,グラフの幅次元ではなく深さ次元の情報を集約する。
2つの挑戦的なマルチホップ空間推論データセットの実験結果から,DepWiGNNが既存の空間推論手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-10-19T08:07:22Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - GPINN: Physics-informed Neural Network with Graph Embedding [1.6607142366834016]
本研究では,グラフ埋め込み(GPINN)を用いた物理インフォームドニューラルネットワークフレームワークを提案し,グラフ上でPINNを実行する。
この手法は、トポロジカルデータをニューラルネットワークの計算に統合し、物理情報ニューラルネットワーク(PINN)の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-06-16T12:03:39Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Hyperbolic Graph Neural Networks: A Review of Methods and Applications [55.5502008501764]
グラフニューラルネットワークは、従来のニューラルネットワークをグラフ構造化データに一般化する。
グラフ関連学習におけるユークリッドモデルの性能は、ユークリッド幾何学の表現能力によって依然として制限されている。
近年,木のような構造を持つグラフデータ処理や,ゆるい分布の処理において,双曲空間が人気が高まっている。
論文 参考訳(メタデータ) (2022-02-28T15:08:48Z) - Spectral-Spatial Global Graph Reasoning for Hyperspectral Image
Classification [50.899576891296235]
畳み込みニューラルネットワークは、ハイパースペクトル画像分類に広く応用されている。
近年の手法は空間トポロジのグラフ畳み込みによってこの問題に対処しようとしている。
論文 参考訳(メタデータ) (2021-06-26T06:24:51Z) - Graph Networks with Spectral Message Passing [1.0742675209112622]
本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-31T21:33:17Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。