論文の概要: Unsupervised Prompting for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2505.16903v1
- Date: Thu, 22 May 2025 17:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.479379
- Title: Unsupervised Prompting for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための教師なしプロンプト
- Authors: Peyman Baghershahi, Sourav Medya,
- Abstract要約: 本稿では,GNNのプロンプト手法を評価するための問題設定を提案する。
擬似ラベルによる整合性正規化に基づく完全教師なしプロンプト手法を提案する。
我々の教師なしのアプローチは、ラベルにアクセス可能な最先端のプロンプト手法よりも優れています。
- 参考スコア(独自算出の注目度): 3.2752005091619076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt tuning methods for Graph Neural Networks (GNNs) have become popular to address the semantic gap between pre-training and fine-tuning steps. However, existing GNN prompting methods rely on labeled data and involve lightweight fine-tuning for downstream tasks. Meanwhile, in-context learning methods for Large Language Models (LLMs) have shown promising performance with no parameter updating and no or minimal labeled data. Inspired by these approaches, in this work, we first introduce a challenging problem setup to evaluate GNN prompting methods. This setup encourages a prompting function to enhance a pre-trained GNN's generalization to a target dataset under covariate shift without updating the GNN's parameters and with no labeled data. Next, we propose a fully unsupervised prompting method based on consistency regularization through pseudo-labeling. We use two regularization techniques to align the prompted graphs' distribution with the original data and reduce biased predictions. Through extensive experiments under our problem setting, we demonstrate that our unsupervised approach outperforms the state-of-the-art prompting methods that have access to labels.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)のプロンプトチューニング手法は、事前学習と微調整のステップ間のセマンティックギャップに対処するために人気がある。
しかし、既存のGNNプロンプトメソッドはラベル付きデータに依存し、下流タスクの軽量な微調整を行う。
一方,Large Language Models (LLMs) のコンテキスト内学習手法では,パラメータ更新がなく,ラベル付きデータが少ない,有望な性能を示している。
これらの手法にインスパイアされた本研究では,まず,GNNのプロンプト手法を評価するための問題設定を提案する。
このセットアップは、GNNのパラメータを更新することなく、ラベル付きデータなしで、共変量シフトの下でターゲットデータセットへの事前訓練されたGNNの一般化を促進させるプロンプト機能を促進する。
次に,擬似ラベルによる整合性正規化に基づく教師なしプロンプト手法を提案する。
我々は2つの正規化手法を用いて、引き起こしたグラフの分布を元のデータと整合させ、バイアス付き予測を減らす。
問題設定下での広範な実験を通して、我々の教師なしアプローチは、ラベルにアクセス可能な最先端のプロンプト手法よりも優れていることを示す。
関連論文リスト
- LOBSTUR: A Local Bootstrap Framework for Tuning Unsupervised Representations in Graph Neural Networks [0.9208007322096533]
グラフニューラルネットワーク(GNN)は、教師なし学習技術と組み合わせて強力なノード表現を学習するために、ますます利用されている。
教師なしグラフ表現学習におけるブートストラップ手法の適用を目的とした新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T19:59:35Z) - Edge Prompt Tuning for Graph Neural Networks [40.62424370491229]
本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-03-02T06:07:54Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - RegExplainer: Generating Explanations for Graph Neural Networks in Regression Tasks [10.473178462412584]
グラフ回帰モデル(XAIG-R)を解釈する新しい説明法を提案する。
本手法は分散シフト問題と連続順序決定境界問題に対処する。
回帰タスクにおいて連続的に順序付けられたラベルに取り組むための自己教師型学習戦略を提案する。
論文 参考訳(メタデータ) (2023-07-15T16:16:22Z) - Every Node Counts: Improving the Training of Graph Neural Networks on
Node Classification [9.539495585692007]
ノード分類のためのGNNのトレーニングのための新しい目的語を提案する。
我々の第一項は、ノードとラベルの特徴間の相互情報を最大化することを目的としている。
第2項は予測写像における異方的滑らか性を促進する。
論文 参考訳(メタデータ) (2022-11-29T23:25:14Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。