論文の概要: GNN-MultiFix: Addressing the pitfalls for GNNs for multi-label node classification
- arxiv url: http://arxiv.org/abs/2411.14094v1
- Date: Thu, 21 Nov 2024 12:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:18:30.351039
- Title: GNN-MultiFix: Addressing the pitfalls for GNNs for multi-label node classification
- Title(参考訳): GNN-MultiFix:マルチラベルノード分類のためのGNNの落とし穴に対処する
- Authors: Tianqi Zhao, Megha Khosla,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータの表現を学習するための強力なモデルとして登場した。
我々は,最も表現力の高いGNNでさえ,ノード属性や明示的なラベル情報を入力として使用せずに学習できないことを示す。
本稿では,ノードの機能,ラベル,位置情報を統合したGNN-MultiFixという簡単なアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.857645719601748
- License:
- Abstract: Graph neural networks (GNNs) have emerged as powerful models for learning representations of graph data showing state of the art results in various tasks. Nevertheless, the superiority of these methods is usually supported by either evaluating their performance on small subset of benchmark datasets or by reasoning about their expressive power in terms of certain graph isomorphism tests. In this paper we critically analyse both these aspects through a transductive setting for the task of node classification. First, we delve deeper into the case of multi-label node classification which offers a more realistic scenario and has been ignored in most of the related works. Through analysing the training dynamics for GNN methods we highlight the failure of GNNs to learn over multi-label graph datasets even for the case of abundant training data. Second, we show that specifically for transductive node classification, even the most expressive GNN may fail to learn in absence of node attributes and without using explicit label information as input. To overcome this deficit, we propose a straightforward approach, referred to as GNN-MultiFix, that integrates the feature, label, and positional information of a node. GNN-MultiFix demonstrates significant improvement across all the multi-label datasets. We release our code at https://anonymous.4open.science/r/Graph-MultiFix-4121.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなタスクにおける最先端の結果を示すグラフデータの表現を学習するための強力なモデルとして登場した。
しかしながら、これらの手法の優位性は通常、ベンチマークデータセットの小さなサブセットでの性能を評価するか、あるいは特定のグラフ同型テストの観点から表現力について推論することによって支持される。
本稿では,ノード分類タスクのトランスダクティブ・セッティングを通じて,これら2つの側面を批判的に分析する。
まず、より現実的なシナリオを提供するマルチラベルノード分類の事例を深く掘り下げ、関連するほとんどの研究で無視されている。
GNN手法のトレーニングダイナミクスを解析することにより、豊富なトレーニングデータであっても、GNNがマルチラベルグラフデータセット上で学習できないことを明らかにする。
第2に、特にトランスダクティブノード分類において、最も表現力の高いGNNでさえ、ノード属性の欠如や明示的なラベル情報を入力として使用せずに学習できない可能性があることを示す。
この欠点を克服するために、ノードの機能、ラベル、位置情報を統合したGNN-MultiFixと呼ばれる簡単なアプローチを提案する。
GNN-MultiFixは、すべてのマルチラベルデータセットで大幅に改善されている。
コードをhttps://anonymous.4open.science/r/Graph-MultiFix-4121でリリースします。
関連論文リスト
- Improved Image Classification with Manifold Neural Networks [13.02854405679453]
グラフニューラルネットワーク(GNN)は、さまざまな学習タスクで人気を集めている。
本稿では,一般データ表現におけるGNNの可能性,特に画像領域における検討を行う。
分類タスクにおいて、画像ラベルに対応するノードラベルを予測するためにGNNを訓練し、GNNの収束を利用してGNNの一般化を分析する。
論文 参考訳(メタデータ) (2024-09-19T19:55:33Z) - You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Hierarchical Model Selection for Graph Neural Netoworks [0.0]
本稿では,各グラフデータの指標を分析して,適切なグラフニューラルネットワーク(GNN)モデルを選択する階層モデル選択フレームワークを提案する。
実験では,HMSFが選択したモデルにより,様々なグラフデータに対するノード分類の性能が向上することを示した。
論文 参考訳(メタデータ) (2022-12-01T22:31:21Z) - Every Node Counts: Improving the Training of Graph Neural Networks on
Node Classification [9.539495585692007]
ノード分類のためのGNNのトレーニングのための新しい目的語を提案する。
我々の第一項は、ノードとラベルの特徴間の相互情報を最大化することを目的としている。
第2項は予測写像における異方的滑らか性を促進する。
論文 参考訳(メタデータ) (2022-11-29T23:25:14Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。