論文の概要: NAFS: A Simple yet Tough-to-beat Baseline for Graph Representation
Learning
- arxiv url: http://arxiv.org/abs/2206.08583v1
- Date: Fri, 17 Jun 2022 06:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 14:33:39.808971
- Title: NAFS: A Simple yet Tough-to-beat Baseline for Graph Representation
Learning
- Title(参考訳): NAFS: グラフ表現学習のためのシンプルで難しいベースライン
- Authors: Wentao Zhang, Zeang Sheng, Mingyu Yang, Yang Li, Yu Shen, Zhi Yang,
Bin Cui
- Abstract要約: パラメータ学習なしでノード表現を構成する単純な非パラメトリック手法であるノード適応型特徴平滑化(NAFS)を提案する。
ノードクラスタリングとリンク予測という,2つの異なるアプリケーションシナリオに関する4つのベンチマークデータセットの実験を行った。
注目すべきは、機能アンサンブルを備えたNAFSは、これらのタスクで最先端のGNNよりも優れています。
- 参考スコア(独自算出の注目度): 26.79012993334157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, graph neural networks (GNNs) have shown prominent performance in
graph representation learning by leveraging knowledge from both graph structure
and node features. However, most of them have two major limitations. First,
GNNs can learn higher-order structural information by stacking more layers but
can not deal with large depth due to the over-smoothing issue. Second, it is
not easy to apply these methods on large graphs due to the expensive
computation cost and high memory usage. In this paper, we present node-adaptive
feature smoothing (NAFS), a simple non-parametric method that constructs node
representations without parameter learning. NAFS first extracts the features of
each node with its neighbors of different hops by feature smoothing, and then
adaptively combines the smoothed features. Besides, the constructed node
representation can further be enhanced by the ensemble of smoothed features
extracted via different smoothing strategies. We conduct experiments on four
benchmark datasets on two different application scenarios: node clustering and
link prediction. Remarkably, NAFS with feature ensemble outperforms the
state-of-the-art GNNs on these tasks and mitigates the aforementioned two
limitations of most learning-based GNN counterparts.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(gnns)は、グラフ構造とノード機能の両方から知識を活用し、グラフ表現学習において顕著な性能を示している。
しかし、そのほとんどは2つの大きな制限がある。
まず、GNNはより多くのレイヤを積み重ねて高階構造情報を学ぶことができるが、過度にスムースな問題のために大きな深さを扱うことはできない。
第二に、高価な計算コストと高いメモリ使用量のために、これらの手法を大きなグラフに適用するのは容易ではない。
本稿では,パラメータ学習なしでノード表現を構成する単純な非パラメトリック手法であるノード適応型特徴平滑化(NAFS)を提案する。
NAFSはまず、各ノードの特徴を異なるホップの隣人にスムーズに抽出し、次にスムーズな特徴を適応的に組み合わせる。
さらに、異なる平滑化戦略によって抽出された平滑化特徴のアンサンブルにより、構築ノード表現をさらに強化することができる。
ノードクラスタリングとリンク予測という,2つの異なるアプリケーションシナリオに関する4つのベンチマークデータセットの実験を行った。
注目すべきは、機能アンサンブルを持つNAFSは、これらのタスクにおける最先端のGNNよりも優れており、前述の学習ベースのGNNの2つの制限を緩和する。
関連論文リスト
- Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Learning heterophilious edge to drop: A general framework for boosting
graph neural networks [19.004710957882402]
本研究は, グラフ構造を最適化することにより, ヘテロフィリの負の影響を緩和することを目的とする。
LHEと呼ばれる構造学習手法を提案する。
emphLHEによるGNNの性能改善は, ホモフィリレベルの全スペクトルにわたる複数のデータセットで実証された。
論文 参考訳(メタデータ) (2022-05-23T14:07:29Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。