論文の概要: GraphBridge: Towards Arbitrary Transfer Learning in GNNs
- arxiv url: http://arxiv.org/abs/2502.19252v1
- Date: Wed, 26 Feb 2025 15:57:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:53.274882
- Title: GraphBridge: Towards Arbitrary Transfer Learning in GNNs
- Title(参考訳): GraphBridge: GNNにおける任意転送学習を目指して
- Authors: Li Ju, Xingyi Yang, Qi Li, Xinchao Wang,
- Abstract要約: 本稿では,GNNにおける異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークであるGraphBridgeを紹介する。
具体的には、GraphBridgeは、予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
提案手法は,Graph2Graph,Node2Node,Graph2Node,Graph2point-cloudなど,さまざまなトランスファー学習シナリオに対して徹底的に評価されている。
- 参考スコア(独自算出の注目度): 65.01790632978962
- License:
- Abstract: Graph neural networks (GNNs) are conventionally trained on a per-domain, per-task basis. It creates a significant barrier in transferring the acquired knowledge to different, heterogeneous data setups. This paper introduces GraphBridge, a novel framework to enable knowledge transfer across disparate tasks and domains in GNNs, circumventing the need for modifications to task configurations or graph structures. Specifically, GraphBridge allows for the augmentation of any pre-trained GNN with prediction heads and a bridging network that connects the input to the output layer. This architecture not only preserves the intrinsic knowledge of the original model but also supports outputs of arbitrary dimensions. To mitigate the negative transfer problem, GraphBridg merges the source model with a concurrently trained model, thereby reducing the source bias when applied to the target domain. Our method is thoroughly evaluated across diverse transfer learning scenarios, including Graph2Graph, Node2Node, Graph2Node, and graph2point-cloud. Empirical validation, conducted over 16 datasets representative of these scenarios, confirms the framework's capacity for task- and domain-agnostic transfer learning within graph-like data, marking a significant advancement in the field of GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、通常、ドメイン単位で、タスク単位でトレーニングされる。
これは、取得した知識を異質な異なるデータセットに転送する上で、重要な障壁を生み出します。
本稿では,GNNにおける異なるタスクやドメイン間の知識伝達を可能にする新しいフレームワークであるGraphBridgeを紹介し,タスク構成やグラフ構造の変更の必要性を回避する。
具体的には、GraphBridgeは、予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
このアーキテクチャは、原モデルの本質的な知識を保持するだけでなく、任意の次元の出力もサポートする。
負の転送問題を緩和するため、GraphBridgはソースモデルを同時に訓練されたモデルとマージし、ターゲットドメインに適用した場合のソースバイアスを低減する。
提案手法は,Graph2Graph,Node2Node,Graph2Node,Graph2point-cloudなど,さまざまなトランスファー学習シナリオに対して徹底的に評価されている。
これらのシナリオに代表される16以上のデータセットで実施された実証検証では、グラフのようなデータ内でのタスクやドメインに依存しないトランスファー学習のフレームワークの能力を確認し、GNNの分野での大きな進歩を示している。
関連論文リスト
- Bridging Domain Adaptation and Graph Neural Networks: A Tensor-Based Framework for Effective Label Propagation [23.79865440689265]
グラフニューラルネットワーク(GNN)は近年,グラフデータ研究の主要なツールとなっている。
グラフ分類タスクにおける最先端のパフォーマンスにもかかわらず、GNNは監督下の単一のドメインで圧倒的に訓練されている。
本稿では,グラフデータと従来のドメイン適応手法のギャップを埋めるために,ラベル伝搬グラフニューラルネットワーク(LP-TGNN)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T15:36:38Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [61.9759512646523]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。