論文の概要: GraphProp: Training the Graph Foundation Models using Graph Properties
- arxiv url: http://arxiv.org/abs/2508.04594v1
- Date: Wed, 06 Aug 2025 16:12:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.819443
- Title: GraphProp: Training the Graph Foundation Models using Graph Properties
- Title(参考訳): GraphProp: グラフ特性を用いたグラフ基礎モデルのトレーニング
- Authors: Ziheng Sun, Qi Feng, Lehao Lin, Chris Ding, Jicong Fan,
- Abstract要約: 本研究は,グラフ分類などのグラフレベルのタスクにおいて,強力な一般化能力を有するグラフ基礎モデル(GFM)の訓練に焦点をあてる。
グラフ構造はノードの特徴やグラフラベルよりも整合性のあるクロスドメイン情報を提供する。
実験の結果,GraphPropは教師付き学習や少数ショット学習,特にノード属性のないグラフ処理において,競合相手よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 24.318377459225637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on training graph foundation models (GFMs) that have strong generalization ability in graph-level tasks such as graph classification. Effective GFM training requires capturing information consistent across different domains. We discover that graph structures provide more consistent cross-domain information compared to node features and graph labels. However, traditional GFMs primarily focus on transferring node features from various domains into a unified representation space but often lack structural cross-domain generalization. To address this, we introduce GraphProp, which emphasizes structural generalization. The training process of GraphProp consists of two main phases. First, we train a structural GFM by predicting graph invariants. Since graph invariants are properties of graphs that depend only on the abstract structure, not on particular labellings or drawings of the graph, this structural GFM has a strong ability to capture the abstract structural information and provide discriminative graph representations comparable across diverse domains. In the second phase, we use the representations given by the structural GFM as positional encodings to train a comprehensive GFM. This phase utilizes domain-specific node attributes and graph labels to further improve cross-domain node feature generalization. Our experiments demonstrate that GraphProp significantly outperforms the competitors in supervised learning and few-shot learning, especially in handling graphs without node attributes.
- Abstract(参考訳): 本研究は,グラフ分類などのグラフレベルのタスクにおいて,強力な一般化能力を有するグラフ基礎モデル(GFM)の訓練に焦点をあてる。
効果的なGFMトレーニングでは、異なるドメイン間で一貫性のある情報をキャプチャする必要がある。
グラフ構造はノードの特徴やグラフラベルよりも整合性のあるクロスドメイン情報を提供する。
しかし、従来のGFMは主に様々な領域から統一表現空間にノード特徴を移すことに重点を置いているが、しばしば構造的クロスドメインの一般化が欠如している。
これを解決するために、構造的一般化を強調するGraphPropを導入します。
GraphPropのトレーニングプロセスは、2つの主要なフェーズで構成されている。
まず、グラフ不変量を予測することによって構造的GFMを訓練する。
グラフ不変量は抽象構造にのみ依存するグラフの性質であり、グラフの特定のラベル付けや図面に依存しないため、この構造 GFM は抽象構造情報を捕捉し、様々な領域に匹敵する識別グラフ表現を提供する強力な能力を持つ。
第2フェーズでは、構造的GFMが与える表現を位置符号化として使用し、総合的なGFMを訓練する。
このフェーズでは、ドメイン固有のノード属性とグラフラベルを使用して、クロスドメインノード機能の一般化をさらに改善する。
実験の結果,GraphPropは教師付き学習や少数ショット学習,特にノード属性のないグラフ処理において,競合相手よりも大幅に優れていた。
関連論文リスト
- From Features to Structure: Task-Aware Graph Construction for Relational and Tabular Learning with GNNs [6.0757501646966965]
タスク対応グラフ拡張のための統合フレームワークであるauGraphを紹介する。
auGraphは、属性をノードに選択的にプロモートすることで、ベースグラフ構造を強化する。
タスク関連構造信号を注入しながら、元のデータスキーマを保存する。
論文 参考訳(メタデータ) (2025-06-02T20:42:53Z) - It Takes a Graph to Know a Graph: Rewiring for Homophily with a Reference Graph [19.222317334613162]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析に長けているが、連結ノードがしばしば異なるクラスに属している異種グラフに苦戦している。
我々は、エッジホモフィリー、GNN埋め込みの滑らかさ、ノード分類性能をリンクする理論的基礎を提供する。
参照グラフを用いてグラフをホモフィリに増加させるリワイアリングフレームワークを導入し、リワイアグラフのホモフィリを理論的に保証する。
論文 参考訳(メタデータ) (2025-05-18T13:28:56Z) - GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - Boosting Graph Foundation Model from Structural Perspective [6.387816922598151]
構造の観点からグラフ基盤モデルを強化し,BooGを提案する。
BooGは仮想スーパーノードを構築し、異なるドメインからのグラフデータの構造的特性を統合する。
また,グラフデータに対してより表現力のある表現を学習するコントラスト学習に基づく,新しい事前学習目標を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:22:16Z) - GraphAlign: Pretraining One Graph Neural Network on Multiple Graphs via Feature Alignment [30.56443056293688]
グラフ自己教師型学習(SSL)は、グラフ構造化データによるマイニングと学習をかなり約束する。
本研究では,グラフニューラルネットワーク(GNN)を,豊富なノード特徴を持つグラフのコレクションにプリトレーニングすることを目的としている。
本稿では,既存のグラフSSLフレームワークにシームレスに統合可能な汎用GraphAlign法を提案する。
論文 参考訳(メタデータ) (2024-06-05T05:22:32Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Semi-Supervised Hierarchical Graph Classification [54.25165160435073]
ノードがグラフのインスタンスである階層グラフにおけるノード分類問題について検討する。
本稿では階層グラフ相互情報(HGMI)を提案し,理論的保証をもってHGMIを計算する方法を提案する。
本稿では,この階層グラフモデリングとSEAL-CI法がテキストおよびソーシャルネットワークデータに与える影響を実証する。
論文 参考訳(メタデータ) (2022-06-11T04:05:29Z) - Graph Spectral Embedding using the Geodesic Betweeness Centrality [76.27138343125985]
本稿では、局所的な類似性、接続性、グローバル構造を教師なしで表現するグラフSylvester Embedding (GSE)を紹介する。
GSEはシルヴェスター方程式の解を用いて、ネットワーク構造と近傍の近接を1つの表現で捉える。
論文 参考訳(メタデータ) (2022-05-07T04:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。