論文の概要: Fully Inductive Node Representation Learning via Graph View Transformation
- arxiv url: http://arxiv.org/abs/2512.11561v1
- Date: Fri, 12 Dec 2025 13:45:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.787965
- Title: Fully Inductive Node Representation Learning via Graph View Transformation
- Title(参考訳): グラフビュー変換による完全帰納的ノード表現学習
- Authors: Dooho Lee, Myeong Kong, Minho Jeong, Jaemin Yoo,
- Abstract要約: 本稿では、任意のグラフを統一的に自然に符号化できる新しい表現軸であるビュー空間を紹介する。
次に,グラフビュー変換(GVT)を提案する。
GVTはノード表現学習のための完全帰納モデルであるRecurrent GVTのビルディングブロックとして機能する。
- 参考スコア(独自算出の注目度): 8.051535170363701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generalizing a pretrained model to unseen datasets without retraining is an essential step toward a foundation model. However, achieving such cross-dataset, fully inductive inference is difficult in graph-structured data where feature spaces vary widely in both dimensionality and semantics. Any transformation in the feature space can easily violate the inductive applicability to unseen datasets, strictly limiting the design space of a graph model. In this work, we introduce the view space, a novel representational axis in which arbitrary graphs can be naturally encoded in a unified manner. We then propose Graph View Transformation (GVT), a node- and feature-permutation-equivariant mapping in the view space. GVT serves as the building block for Recurrent GVT, a fully inductive model for node representation learning. Pretrained on OGBN-Arxiv and evaluated on 27 node-classification benchmarks, Recurrent GVT outperforms GraphAny, the prior fully inductive graph model, by +8.93% and surpasses 12 individually tuned GNNs by at least +3.30%. These results establish the view space as a principled and effective ground for fully inductive node representation learning.
- Abstract(参考訳): 事前トレーニングされたモデルを再トレーニングせずにデータセットを見えないものに一般化することは、基礎モデルに向けた重要なステップである。
しかし、このようなクロスデータセットを実現することは、特徴空間が次元と意味の両方で広く異なるグラフ構造化データにおいて困難である。
特徴空間における任意の変換は、見つからないデータセットに対する帰納的適用性に容易に違反し、グラフモデルの設計空間を厳格に制限する。
本研究では、任意のグラフを統一的に自然に符号化できる新しい表現軸であるビュー空間を導入する。
次に,グラフビュー変換(GVT)を提案する。
GVTはノード表現学習のための完全帰納モデルであるRecurrent GVTのビルディングブロックとして機能する。
OGBN-Arxivで事前訓練され、27のノード分類ベンチマークで評価されたRecurrent GVTは、以前の完全帰納グラフモデルであるGraphAnyを+8.93%上回り、少なくとも+3.30%は個別に調整されたGNNを12を超える。
これらの結果は、完全帰納的ノード表現学習の原則的かつ効果的な基盤として、ビュー空間を確立する。
関連論文リスト
- Equivariance Everywhere All At Once: A Recipe for Graph Foundation Models [25.936601292112844]
ノードレベルのタスクのためのグラフ基盤モデルを第一原理から設計するためのレシピを提案する。
本研究の基盤となる重要な要素は,グラフ基盤モデルが尊重すべき対称性を体系的に調査することである。
我々は29の実世界のノード分類データセットに関する広範な実験を通して、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2025-06-17T08:05:08Z) - Scalable Graph Generative Modeling via Substructure Sequences [50.32639806800683]
本稿では,グラフ生成用トランスフォーマー事前学習フレームワークである生成グラフパターンマシン(G$2$PM)を紹介する。
G$2$PMはグラフインスタンス(ノード、エッジ、グラフ全体)をサブ構造のシーケンスとして表現する。
それは、一般化可能かつ伝達可能な表現を学ぶために、シーケンスに関する生成的事前学習を採用する。
論文 参考訳(メタデータ) (2025-05-22T02:16:34Z) - GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。