論文の概要: Simplifying approach to Node Classification in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2111.06748v1
- Date: Fri, 12 Nov 2021 14:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:29:02.908727
- Title: Simplifying approach to Node Classification in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるノード分類の簡易化
- Authors: Sunil Kumar Maurya, Xin Liu and Tsuyoshi Murata
- Abstract要約: グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
- 参考スコア(独自算出の注目度): 7.057970273958933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks have become one of the indispensable tools to learn
from graph-structured data, and their usefulness has been shown in wide variety
of tasks. In recent years, there have been tremendous improvements in
architecture design, resulting in better performance on various prediction
tasks. In general, these neural architectures combine node feature aggregation
and feature transformation using learnable weight matrix in the same layer.
This makes it challenging to analyze the importance of node features aggregated
from various hops and the expressiveness of the neural network layers. As
different graph datasets show varying levels of homophily and heterophily in
features and class label distribution, it becomes essential to understand which
features are important for the prediction tasks without any prior information.
In this work, we decouple the node feature aggregation step and depth of graph
neural network, and empirically analyze how different aggregated features play
a role in prediction performance. We show that not all features generated via
aggregation steps are useful, and often using these less informative features
can be detrimental to the performance of the GNN model. Through our
experiments, we show that learning certain subsets of these features can lead
to better performance on wide variety of datasets. We propose to use softmax as
a regularizer and "soft-selector" of features aggregated from neighbors at
different hop distances; and L2-Normalization over GNN layers. Combining these
techniques, we present a simple and shallow model, Feature Selection Graph
Neural Network (FSGNN), and show empirically that the proposed model achieves
comparable or even higher accuracy than state-of-the-art GNN models in nine
benchmark datasets for the node classification task, with remarkable
improvements up to 51.1%.
- Abstract(参考訳): グラフニューラルネットワークは、グラフ構造化データから学ぶのに欠かせないツールの1つとなり、その有用性は様々なタスクで示されている。
近年、アーキテクチャ設計が大幅に改善され、様々な予測タスクのパフォーマンスが向上している。
一般に、これらのニューラルネットワークアーキテクチャは、同一層の学習可能な重み行列を用いて、ノードの特徴集約と特徴変換を組み合わせる。
これにより、さまざまなホップから集約されたノード機能の重要性と、ニューラルネットワーク層の表現性を分析することが困難になる。
異なるグラフデータセットが特徴量やクラスラベル分布の相同性および異種性を示すため、事前情報を持たない予測タスクにおいてどの特徴が重要かを理解することが不可欠となる。
本研究では、グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを実証分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
実験を通じて,これらの機能のサブセットを学習することで,さまざまなデータセットのパフォーマンス向上が期待できることを示した。
ホップ距離の異なる近傍から集約された機能のレギュラライザとソフトセレクタとしてsoftmaxを用い,gnn層上でのl2正規化を提案する。
これらの手法を組み合わせることで、単純で浅い特徴選択グラフニューラルネットワーク(FSGNN)を提案し、提案モデルがノード分類タスクの9つのベンチマークデータセットにおいて、最先端のGNNモデルと同等またはそれ以上の精度を達成し、51.1%の大幅な改善を実現していることを示す。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Hyperbolic Benchmarking Unveils Network Topology-Feature Relationship in GNN Performance [0.5416466085090772]
グラフ機械学習のための総合的なベンチマークフレームワークを導入する。
我々は,現実的なトポロジ特性とノード特徴ベクトルを持つ合成ネットワークを生成する。
その結果,ネットワーク構造とノード特徴間の相互作用にモデル性能が依存していることが明らかになった。
論文 参考訳(メタデータ) (2024-06-04T20:40:06Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Breaking the Limit of Graph Neural Networks by Improving the
Assortativity of Graphs with Local Mixing Patterns [19.346133577539394]
グラフニューラルネットワーク(GNN)は、複数のグラフベースの学習タスクで大きな成功を収めています。
入力グラフを近接情報と構造情報の両方を含む計算グラフに変換することに集中する。
構造と近接度を適応的に選択することで,様々な混合条件下での性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-11T19:18:34Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。