論文の概要: Graph Attention-based Adaptive Transfer Learning for Link Prediction
- arxiv url: http://arxiv.org/abs/2512.22252v1
- Date: Wed, 24 Dec 2025 05:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.936836
- Title: Graph Attention-based Adaptive Transfer Learning for Link Prediction
- Title(参考訳): グラフ注意に基づくリンク予測のための適応変換学習
- Authors: Huashen Lu, Wensheng Gan, Guoting Chen, Zhichao Huang, Philip S. Yu,
- Abstract要約: GAATNet(Graph Attention Adaptive Transfer Network)を提案する。
事前トレーニングと微調整の利点を組み合わせて、さまざまなスケールのデータセットにまたがるグローバルノードの埋め込み情報をキャプチャする。
7つの公開データセットに関する総合的な実験は、GAATNetがLPタスクで最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 47.536705576580836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have brought revolutionary advancements to the field of link prediction (LP), providing powerful tools for mining potential relationships in graphs. However, existing methods face challenges when dealing with large-scale sparse graphs and the need for a high degree of alignment between different datasets in transfer learning. Besides, although self-supervised methods have achieved remarkable success in many graph tasks, prior research has overlooked the potential of transfer learning to generalize across different graph datasets. To address these limitations, we propose a novel Graph Attention Adaptive Transfer Network (GAATNet). It combines the advantages of pre-training and fine-tuning to capture global node embedding information across datasets of different scales, ensuring efficient knowledge transfer and improved LP performance. To enhance the model's generalization ability and accelerate training, we design two key strategies: 1) Incorporate distant neighbor embeddings as biases in the self-attention module to capture global features. 2) Introduce a lightweight self-adapter module during fine-tuning to improve training efficiency. Comprehensive experiments on seven public datasets demonstrate that GAATNet achieves state-of-the-art performance in LP tasks. This study provides a general and scalable solution for LP tasks to effectively integrate GNNs with transfer learning. The source code and datasets are publicly available at https://github.com/DSI-Lab1/GAATNet
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、リンク予測(LP)分野に革命的な進歩をもたらし、グラフ内の潜在的な関係をマイニングするための強力なツールを提供する。
しかし、既存の手法は、大規模なスパースグラフを扱う場合や、転送学習において異なるデータセット間の高度なアライメントの必要性に直面する。
さらに、自己教師付き手法は多くのグラフタスクで顕著に成功したが、以前の研究では、異なるグラフデータセットをまたいだ一般化のための移動学習の可能性を見落としていた。
これらの制約に対処するため、我々は新しいグラフ注意適応転送ネットワーク(GAATNet)を提案する。
事前トレーニングと微調整の利点を組み合わせて、さまざまなスケールのデータセットにまたがるグローバルノードの埋め込み情報をキャプチャし、効率的な知識伝達を保証し、LP性能を向上させる。
モデルの一般化能力を高め、トレーニングを加速するために、我々は2つの重要な戦略を設計する。
1) グローバルな特徴を捉えた自己保持モジュールのバイアスとして, 近隣の埋め込みを組み込むこと。
2) 訓練効率を向上させるため, 微調整時に軽量な自己適応モジュールを導入する。
7つの公開データセットに関する総合的な実験は、GAATNetがLPタスクで最先端のパフォーマンスを達成することを示す。
本研究は、GNNと転送学習を効果的に統合するLPタスクに対して、汎用的でスケーラブルなソリューションを提供する。
ソースコードとデータセットはhttps://github.com/DSI-Lab1/GAATNetで公開されている。
関連論文リスト
- GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - GraphLoRA: Structure-Aware Contrastive Low-Rank Adaptation for Cross-Graph Transfer Learning [17.85404473268992]
グラフニューラルネットワーク(GNN)は、様々なグラフ解析タスクを扱うのに顕著な習熟度を示した。
汎用性にもかかわらず、GNNはトランスファービリティにおいて重大な課題に直面し、現実のアプリケーションでの利用を制限している。
グラフ領域によく訓練されたGNNを転送するための有効かつパラメータ効率のよいGraphLoRAを提案する。
論文 参考訳(メタデータ) (2024-09-25T06:57:42Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。