論文の概要: A pipeline for fair comparison of graph neural networks in node
classification tasks
- arxiv url: http://arxiv.org/abs/2012.10619v1
- Date: Sat, 19 Dec 2020 07:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:09:31.861627
- Title: A pipeline for fair comparison of graph neural networks in node
classification tasks
- Title(参考訳): ノード分類タスクにおけるグラフニューラルネットワークの公正比較のためのパイプライン
- Authors: Wentao Zhao, Dalin Zhou, Xinguo Qiu and Wei Jiang
- Abstract要約: グラフニューラルネットワーク (GNN) は, グラフデータを用いた複数の分野に適用可能性について検討されている。
新しいメソッドの公正な比較を保証するための標準的なトレーニング設定はありません。
ノード分類に同じトレーニング設定を適用可能な,標準的な再現可能なベンチマークを導入する。
- 参考スコア(独自算出の注目度): 4.418753792543564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been investigated for potential
applicability in multiple fields that employ graph data. However, there are no
standard training settings to ensure fair comparisons among new methods,
including different model architectures and data augmentation techniques. We
introduce a standard, reproducible benchmark to which the same training
settings can be applied for node classification. For this benchmark, we
constructed 9 datasets, including both small- and medium-scale datasets from
different fields, and 7 different models. We design a k-fold model assessment
strategy for small datasets and a standard set of model training procedures for
all datasets, enabling a standard experimental pipeline for GNNs to help ensure
fair model architecture comparisons. We use node2vec and Laplacian eigenvectors
to perform data augmentation to investigate how input features affect the
performance of the models. We find topological information is important for
node classification tasks. Increasing the number of model layers does not
improve the performance except on the PATTERN and CLUSTER datasets, in which
the graphs are not connected. Data augmentation is highly useful, especially
using node2vec in the baseline, resulting in a substantial baseline performance
improvement.
- Abstract(参考訳): グラフニューラルネットワーク (GNN) は, グラフデータを用いた複数の分野に適用可能性について検討されている。
しかし、異なるモデルアーキテクチャやデータ拡張技術を含む新しい手法と公正な比較を保証するための標準的なトレーニング設定は存在しない。
ノード分類に同じトレーニング設定を適用可能な,標準的な再現可能なベンチマークを導入する。
このベンチマークでは、異なるフィールドからの小規模および中規模のデータセットと7つの異なるモデルを含む9つのデータセットを構築した。
我々は、小規模データセットのためのk-foldモデル評価戦略と、全データセットの標準モデルトレーニング手順を設計し、gnnの標準実験パイプラインにより、公正なモデルアーキテクチャの比較を可能にする。
node2vecとLaplacian固有ベクトルを用いてデータ拡張を行い、入力機能がモデルの性能に与える影響を調べる。
トポロジ的情報はノード分類タスクにおいて重要である。
モデルレイヤの数を増やすことは、グラフが接続されていないPATTERNとCLUSTERデータセットを除いて、パフォーマンスを向上しない。
データ拡張は非常に有用であり、特にnode2vecをベースラインで使用すると、パフォーマンスが大幅に向上する。
関連論文リスト
- DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。