論文の概要: On the Power of Graph Neural Networks and Feature Augmentation
Strategies to Classify Social Networks
- arxiv url: http://arxiv.org/abs/2401.06048v1
- Date: Thu, 11 Jan 2024 17:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 13:30:56.816269
- Title: On the Power of Graph Neural Networks and Feature Augmentation
Strategies to Classify Social Networks
- Title(参考訳): グラフニューラルネットワークのパワーとソーシャルネットワーク分類のための特徴強化戦略について
- Authors: Walid Guettala and L\'aszl\'o Guly\'as
- Abstract要約: 本稿では,ネットワークサイエンスの古典的生成モデルを用いて生成した合成データセット上で,グラフ分類タスクのための4つのグラフニューラルネットワークアーキテクチャ(GNN)について検討する。
合成ネットワークは(ノードまたはエッジ)特徴を含まないため、5つの異なる拡張戦略(人工的特徴型)がノードに適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies four Graph Neural Network architectures (GNNs) for a graph
classification task on a synthetic dataset created using classic generative
models of Network Science. Since the synthetic networks do not contain (node or
edge) features, five different augmentation strategies (artificial feature
types) are applied to nodes. All combinations of the 4 GNNs (GCN with
Hierarchical and Global aggregation, GIN and GATv2) and the 5 feature types
(constant 1, noise, degree, normalized degree and ID -- a vector of the number
of cycles of various lengths) are studied and their performances compared as a
function of the hidden dimension of artificial neural networks used in the
GNNs. The generalisation ability of these models is also analysed using a
second synthetic network dataset (containing networks of different sizes).Our
results point towards the balanced importance of the computational power of the
GNN architecture and the the information level provided by the artificial
features. GNN architectures with higher computational power, like GIN and
GATv2, perform well for most augmentation strategies. On the other hand,
artificial features with higher information content, like ID or degree, not
only consistently outperform other augmentation strategies, but can also help
GNN architectures with lower computational power to achieve good performance.
- Abstract(参考訳): 本稿では,ネットワーク科学の古典的な生成モデルを用いて作成した合成データセット上のグラフ分類タスクのための4つのグラフニューラルネットワークアーキテクチャ(gnns)について述べる。
合成ネットワークは(ノードまたはエッジ)特徴を含まないため、5つの異なる拡張戦略(人工的特徴型)がノードに適用される。
4つのGNN (GCN with Hierarchical and Global aggregate, GIN and GATv2) と5つの特徴タイプ (Constant 1, noise, degree, normalized degree and ID -- a vector of the cycles of various lengths) の組合せについて検討し、その性能をGNNで使用される人工ニューラルネットワークの隠れ次元の関数として比較した。
これらのモデルの一般化能力は、第2の合成ネットワークデータセット(異なるサイズのネットワークを含む)を用いて分析される。
本研究は,GNNアーキテクチャの計算能力のバランスの取れた重要性と,人工的な特徴によって提供される情報レベルに着目した。
GINやGATv2のような高い計算能力を持つGNNアーキテクチャは、ほとんどの拡張戦略でうまく機能する。
一方、IDや次数などの高い情報コンテンツを持つ人工的な機能は、他の拡張戦略を一貫して上回るだけでなく、計算能力の低いGNNアーキテクチャにも役立ち、優れたパフォーマンスを実現することができる。
関連論文リスト
- Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - Hyperbolic Benchmarking Unveils Network Topology-Feature Relationship in GNN Performance [0.5416466085090772]
グラフ機械学習のための総合的なベンチマークフレームワークを導入する。
我々は,現実的なトポロジ特性とノード特徴ベクトルを持つ合成ネットワークを生成する。
その結果,ネットワーク構造とノード特徴間の相互作用にモデル性能が依存していることが明らかになった。
論文 参考訳(メタデータ) (2024-06-04T20:40:06Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Learnable Graph Convolutional Attention Networks [7.465923786151107]
グラフニューラルネットワーク(GNN)は、ノード間のメッセージ交換を、隣接するすべてのノードの特徴を均一に(関連する)集約するか、あるいは特徴に一様でないスコア(動作)を適用することによって計算する。
最近の研究は、それぞれGCNとGATのGNNアーキテクチャの長所と短所を示している。
本稿では、注目スコアを計算するために、畳み込みに依存するグラフ畳み込みアテンション層(CAT)を紹介する。
以上の結果から,L-CATはネットワーク上の異なるGNN層を効率よく結合し,競合する手法よりも広い範囲で優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-11-21T21:08:58Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。