論文の概要: Fully-inductive Node Classification on Arbitrary Graphs
- arxiv url: http://arxiv.org/abs/2405.20445v4
- Date: Fri, 28 Feb 2025 00:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:37:26.739102
- Title: Fully-inductive Node Classification on Arbitrary Graphs
- Title(参考訳): 任意グラフによる完全帰納ノード分類
- Authors: Jianan Zhao, Zhaocheng Zhu, Mikhail Galkin, Hesham Mostafa, Michael Bronstein, Jian Tang,
- Abstract要約: 本稿では、モデルが新しい構造、特徴、ラベル空間を持つ任意のテストグラフ上で推論を行うための完全な帰納的設定を提案する。
この挑戦的なセットアップの最初の試みとして、GraphAnyを提案する。
実証的には、わずか120のラベル付きノードを持つ単一のウィスコンシンデータセットでトレーニングされたGraphAnyは、平均精度67.26%で30の新しいグラフに一般化できる。
- 参考スコア(独自算出の注目度): 18.90340185554506
- License:
- Abstract: One fundamental challenge in graph machine learning is generalizing to new graphs. Many existing methods following the inductive setup can generalize to test graphs with new structures, but assuming the feature and label spaces remain the same as the training ones. This paper introduces a fully-inductive setup, where models should perform inference on arbitrary test graphs with new structures, feature and label spaces. We propose GraphAny as the first attempt at this challenging setup. GraphAny models inference on a new graph as an analytical solution to a LinearGNN, which can be naturally applied to graphs with any feature and label spaces. To further build a stronger model with learning capacity, we fuse multiple LinearGNN predictions with learned inductive attention scores. Specifically, the attention module is carefully parameterized as a function of the entropy-normalized distance features between pairs of LinearGNN predictions to ensure generalization to new graphs. Empirically, GraphAny trained on a single Wisconsin dataset with only 120 labeled nodes can generalize to 30 new graphs with an average accuracy of 67.26\%, surpassing not only all inductive baselines, but also strong transductive methods trained separately on each of the 30 test graphs.
- Abstract(参考訳): グラフ機械学習における基本的な課題の1つは、新しいグラフへの一般化である。
帰納的設定に従う既存の多くのメソッドは、新しい構造を持つグラフをテストするために一般化できるが、特徴空間とラベル空間はトレーニング空間と同じである。
本稿では、モデルが新しい構造、特徴、ラベル空間を持つ任意のテストグラフ上で推論を行うための完全な帰納的設定を提案する。
この挑戦的なセットアップの最初の試みとして、GraphAnyを提案する。
GraphAnyは、LinearGNNの分析ソリューションとして、新しいグラフ上での推論をモデル化する。
学習能力を持つより強力なモデルを構築するために、複数のLinearGNN予測を学習帰納的アテンションスコアで融合する。
特に、注目モジュールは、新しいグラフへの一般化を保証するために、LinearGNNのペア間のエントロピー正規化距離特徴の関数として注意深くパラメータ化される。
実証的には、わずか120のラベル付きノードを持つ単一のウィスコンシンデータセットでトレーニングされたGraphAnyは、平均精度67.26\%の30の新しいグラフに一般化することができ、すべてのインダクティブベースラインだけでなく、30のテストグラフごとに個別にトレーニングされた強いトランスダクティブメソッドも超える。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Inductive Graph Alignment Prompt: Bridging the Gap between Graph
Pre-training and Inductive Fine-tuning From Spectral Perspective [13.277779426525056]
グラフ事前学習と微調整」パラダイムはグラフニューラルネットワーク(GNN)を大幅に改善した
しかし、事前学習と微調整の段階でのデータとタスクの差が大きいため、モデルの性能は依然として限られている。
Inductive Graph Alignment Prompt(IGAP)と呼ばれる新しいグラフプロンプト方式を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:25:54Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Meta-Inductive Node Classification across Graphs [6.0471030308057285]
MI-GNNと呼ばれる新しいメタインダクタティブフレームワークを提案し、各グラフにインダクタティブモデルをカスタマイズする。
MI-GNNは誘導モデルを直接学習するものではなく、新しいグラフ上の半監視ノード分類のためのモデルをトレーニングする方法に関する一般的な知識を学ぶ。
5つの実世界のグラフコレクションに関する広範な実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-05-14T09:16:28Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z) - Customized Graph Neural Networks [38.30640892828196]
グラフニューラルネットワーク(GNN)は,グラフ分類のタスクを大幅に進歩させた。
本稿では,新たにカスタマイズされたグラフニューラルネットワークフレームワークであるCustomized-GNNを提案する。
提案するフレームワークは非常に一般的なもので,既存のグラフニューラルネットワークモデルにも適用可能である。
論文 参考訳(メタデータ) (2020-05-22T05:22:24Z) - The Power of Graph Convolutional Networks to Distinguish Random Graph
Models: Short Version [27.544219236164764]
グラフ畳み込みネットワーク(GCN)はグラフ表現学習において広く使われている手法である。
サンプルグラフの埋め込みに基づいて異なるランダムグラフモデルを区別するGCNのパワーについて検討する。
論文 参考訳(メタデータ) (2020-02-13T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。