論文の概要: Beyond Single-Granularity Prompts: A Multi-Scale Chain-of-Thought Prompt Learning for Graph
- arxiv url: http://arxiv.org/abs/2510.09394v1
- Date: Fri, 10 Oct 2025 13:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.193482
- Title: Beyond Single-Granularity Prompts: A Multi-Scale Chain-of-Thought Prompt Learning for Graph
- Title(参考訳): シングルグラニュラリティプロンプトを超えて - グラフのためのマルチスケール連鎖型プロンプト学習
- Authors: Ziyu Zheng, Yaming Yang, Ziyu Guan, Wei Zhao, Xinyan Huang, Weigang Lu,
- Abstract要約: プレトレイン・プロンプト」パラダイムは、NLPドメインからグラフドメインに拡張されている。
現在のグラフプロンプトチューニング手法は、学習可能なプロンプトベクトルを用いて入力や出力の機能を修正している。
本稿では,MSGCOT(Multi-Scale Graph Chain-of-Thought)プロンプトフレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.205298192935313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The "pre-train, prompt'' paradigm, designed to bridge the gap between pre-training tasks and downstream objectives, has been extended from the NLP domain to the graph domain and has achieved remarkable progress. Current mainstream graph prompt-tuning methods modify input or output features using learnable prompt vectors. However, existing approaches are confined to single-granularity (e.g., node-level or subgraph-level) during prompt generation, overlooking the inherently multi-scale structural information in graph data, which limits the diversity of prompt semantics. To address this issue, we pioneer the integration of multi-scale information into graph prompt and propose a Multi-Scale Graph Chain-of-Thought (MSGCOT) prompting framework. Specifically, we design a lightweight, low-rank coarsening network to efficiently capture multi-scale structural features as hierarchical basis vectors for prompt generation. Subsequently, mimicking human cognition from coarse-to-fine granularity, we dynamically integrate multi-scale information at each reasoning step, forming a progressive coarse-to-fine prompt chain. Extensive experiments on eight benchmark datasets demonstrate that MSGCOT outperforms the state-of-the-art single-granularity graph prompt-tuning method, particularly in few-shot scenarios, showcasing superior performance.
- Abstract(参考訳): 事前学習タスクと下流目標のギャップを埋めるために設計された"pre-train, prompt'パラダイムは、NLPドメインからグラフドメインに拡張され、目覚ましい進歩を遂げた。
現在の主流グラフプロンプトチューニング手法は、学習可能なプロンプトベクトルを用いて入力や出力の機能を修正している。
しかし、既存のアプローチは、即時生成時に単一粒度(例えばノードレベルやサブグラフレベル)に制限され、グラフデータの本質的にマルチスケールな構造情報を見渡すことで、即時セマンティクスの多様性を制限している。
この問題に対処するため,グラフプロンプトへのマルチスケール情報の統合を開拓し,MSGCOT(Multi-Scale Graph Chain-of-Thought)プロンプトフレームワークを提案する。
具体的には、高速な生成のための階層型基底ベクトルとして、マルチスケールの構造的特徴を効率的に捉えるために、軽量で低ランクな粗いネットワークを設計する。
その後、粗粒度から粗粒度への人間の認識を模倣し、各推論ステップでマルチスケール情報を動的に統合し、プログレッシブ・粗粒化プロンプトチェーンを形成する。
8つのベンチマークデータセットに対する大規模な実験により、MSGCOTは最先端の単一粒度グラフプロンプトチューニング法、特に数ショットのシナリオでは、優れたパフォーマンスを示す。
関連論文リスト
- Can Graph Neural Networks Learn Language with Extremely Weak Text Supervision? [62.12375949429938]
本稿では,事前学習したグラフニューラルネットワークを下流タスクやデータに適用するためのマルチモーダル・プロンプト学習パラダイムを提案する。
我々の新しいパラダイムは、グラフプロンプトとテキストプロンプトの両方を同時に学習することで、Large Language Models(LLM)と直接同じ空間にグラフを埋め込む。
私たちは、GNNを極めて弱いテキスト管理で見えないクラスに一般化できるCLIPスタイルのゼロショット分類プロトタイプを構築した。
論文 参考訳(メタデータ) (2024-12-11T08:03:35Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。